Google опубликовал список всех изменений в спецификации robots.txt

В рамках работы по переводу Robots Exclusion Protocol (REP) в разряд официальных интернет-стандартов Google обновил свою документацию по robots.txt.

??Updated Google's Robots.txt spec to match REP draft?? ?Follows 5 redirect hops??No crawl restrictions if unavailable >30 days??Unsuccessful requests=server error?500 KiB size limit?Supports URI-based protocolsFull list of changes: https://t.co/GXd6FWt2D0 #robotstxt25

— Lizzi Harvey (@LizziHarvey) July 1, 2019

Все изменения перечислены в новом разделе «What changed» на странице Robots.txt Specifications. В их числе значатся следующие:

  • Удалён раздел «Язык требований»;
  • Robots.txt теперь принимает все протоколы на основе URI;
  • Google выполняет минимум пять повторений для переадресации. Если файл robots.txt не найден, цикл прекращается и регистрируется ошибка 404. Обработка логических переадресаций к файлу robots.txt на основе HTML-содержания, возвращающего коды 2xx (переадресации на основе фреймов, JavaScript или метатегов обновления) не рассматривается.
  • Что касается ошибок 5xx, то если robots.txt недоступен более 30 дней, используется последняя копия, сохранённая в кеше. Если она недоступна, Google заключает, что никаких ограничений сканирования не предусмотрено.
  • Google обрабатывает неудачные запросы или неполные данные как ошибку сервера.
  • «Записи» теперь называются «строками» или «правилами», в зависимости от ситуации.
  • Google не поддерживает обработку элементов с простыми ошибками или опечатками (например, «useragent» вместо «user-agent»).
  • В настоящее время Google обрабатывает файлы robots.txt, размер которых составляет до 500 кибибайт (КиБ), и игнорирует контент, который превышает это ограничение.
  • Обновлён формальный синтаксис, чтобы он был действительно расширенной формой Бэкуса-Наура (ABNF) в соответствии с RFC5234 и охватывал символы UTF-8 в файле robots.txt.
  • Обновлено определение «групп», чтобы оно стало короче и лаконичнее. Добавлен пример для пустой группы.
  • Удалены ссылки на устаревшую схему сканирования Ajax.

В русскоязычной версии документа эти изменения пока не отражены.

Напомним, что на днях Google также открыл исходный код своего парсера для robots.txt.







Интересные новости
Дети обмениваются порно-фото и выкладывают их в Сеть, а взрослые не понимают Интернет-слэнг
Марк Цукерберг раскритиковал "Социальную сеть"
Американских игроков начали сажать
1го апреля один из сайтов дошутился: на него подают в суд
Масоны онлайн
Блок рекламы


Похожие новости

Google програв судовий процес щодо антимонопольного штрафу ЄС у розмірі $2,7 млрдGoogle програв судовий процес щодо антимонопольного штрафу ЄС у розмірі $2,7 млрд
Google заплатив Apple $20 млрд, щоб стати стандартним пошуковиком у SafariGoogle заплатив Apple $20 млрд, щоб стати стандартним пошуковиком у Safari
Google планує стягувати плату за пошукову систему на основі ШІGoogle планує стягувати плату за пошукову систему на основі ШІ
Чатбот зі штучним інтелектом від Google вже доступний в Україні: що він можеЧатбот зі штучним інтелектом від Google вже доступний в Україні: що він може
Axios: Як Google намагається протистояти у сфері ШІ компаніям Microsoft та OpenAIAxios: Як Google намагається протистояти у сфері ШІ компаніям Microsoft та OpenAI
Google помилково відіслала деяким користувачам Google Pay від $10 до $1000Google помилково відіслала деяким користувачам Google Pay від $10 до $1000
Google порахував, скільки мільярдів доходу отримали українські стартапи у 2022 роціGoogle порахував, скільки мільярдів доходу отримали українські стартапи у 2022 році
«Податок на Google»: Держбюджет вже отримав 6,3 мільярда«Податок на Google»: Держбюджет вже отримав 6,3 мільярда
Google запускає чат-бот Bard для конкуренції з ChatGPTGoogle запускає чат-бот Bard для конкуренції з ChatGPT
Фонд держмайна починає співпрацю з Google: що це значитьФонд держмайна починає співпрацю з Google: що це значить
Последние новости

Подгружаем последние новости