Google решил проблему индексирования собственных результатов поиска
В течение последних нескольких недель появлялись различные
Согласно руководству Google, необходимо использовать robot.txt для предотвращения сканирования страниц поисковой выдачи или других автоматически генерируемых страниц, которые не представляют особой ценности для пользователей поисковых систем.
Редактор Search Engine Land Барри Шварц (Barry Schwartz) рассказал о том, что издание попросило Google прокомментировать сообщения пользователей. Представитель компании ответил, что это – глюк, связанный с несколькими слешами в веб-адресах, и разработчики уже работают над его устранением. После чего лидером поиска было произведено изменение файла robot.txt в
Ниже – скриншоты поисковой выдачи до и после устранения ошибки: