Как создать txt-файл для роботов

{title}

Поисковые системы, когда они попадают на веб-сайт, начинают искать файл robots.txt, чтобы продолжить его чтение. Это будет зависеть от его содержания, так что паук поисковой системы продолжит работу внутри сайта или перейдет на другой.Файл robots.txt содержит список страниц, которые разрешено индексировать для поисковой системы, которая, в свою очередь, выборочно ограничивает доступ для определенных поисковых систем.

Это файл ASCII, который должен находиться в корне сайта. Он может содержать следующие команды:Пользователь-агент : Он используется, чтобы указать, какой робот будет выполнять представленные приказы.Не позволяйте : Он используется для определения того, какие страницы будут исключены в процессе анализа поисковой системой. Важно, чтобы каждая исключаемая страница должна состоять из отдельных строк и также начинаться с символа /. Эта символика уточняется; на «все страницы сайта».Чрезвычайно важно, чтобы в файле robots.txt не было пустых строк.Ниже приведены некоторые примеры;
  • Если вы хотите исключить все страницы; Пользователь Агента: Не разрешать: /.
  • Если цель не состоит в том, чтобы исключить какую-либо страницу, то файл robotos.txt не должен существовать на веб-сайте, а это означает, что все страницы сайта будут посещаться одинаково.
  • Когда конкретный робот исключен, это будет:
  • Пользователь агента: Имя робота Не разрешать: / Пользователь агента: * Не разрешать:
  • Когда страница исключена; Пользователь агента: * Не разрешать: /directory/path/page.html
  • Когда все страницы каталога веб-сайта с соответствующими подпапками исключены, это будет; Пользователь агента: * Не разрешать: / каталог /
С помощью этого файла вы можете запретить поисковым системам доступ к определенным страницам или каталогам, вы также можете заблокировать доступ к файлам или определенным утилитам.Еще одна функция - предотвратить индексирование дублированного контента, обнаруженного на сайте, чтобы не подвергаться штрафным санкциям.Также следует помнить о том, что некоторые роботы могут игнорировать инструкции, представленные в этом файле, и также должно быть ясно, что файл является общедоступным, потому что любой, кто пишет www.example.com/robots.txt, может иметь к нему доступ.Теперь вопрос может быть; Как создать файл robots.txt?На самом деле это довольно просто, так как это текстовый документ с именем «robots.txt», который затем загружается в корень домена страницы, именно там поисковые системы будут искать его для чтения.Базовый файл robots.txt может быть:Пользовательский агент: *Disallow: / private /Формируются инструкции, запрещающие доступ к каталогу, который будет «частным» для всех поисковых систем.Команда определяет, что она адресована всем роботам (User-agent: *), указывая, что каталог неавторизован (Disallow: / private /).Параметр, который используется для поисковой системы Google: Пользовательский агент: GooglebotКак упоминалось выше, его использование в SEO используется для ограничения доступа роботов к дублированному контенту.