Google: алгоритмы по выявлению дубликатов практически не менялись

Google не вносил значительных изменений в работу своих алгоритмов по выявлению дублированного контента. На протяжении многих лет они остаются относительно стабильными. Об этом заявил ведущий инженер по ранжированию Google Пол Хаар.

@ajkohn @methode .@ajkohn @methode Obviously, we make improvements to our code over time, including dup detection. But that’s been mostly stable for years.

— Paul Haahr (@haahr) 30 марта 2017 г.

А на днях сотрудник отдела качества поиска Google Гэри Илш также рассказал, когда в выдаче может показываться более двух результатов с одного и того же сайта. Это происходит в том случае, если качество других результатов намного ниже.

DYK usually when you see more than 2 results from the same site in the SERP, that’s because other results score much lower for the query? pic.twitter.com/Bz4DPaR8PC

— Gary Illyes ?( ? )? (@methode) 30 марта 2017 г.

Напомним, что Google не наказывает сайты за дублирование контента в разных форматах, а по словам Гэри Илша, вебмастерам вообще не стоит беспокоиться о дублировании контента на сайте.

В 2014 году Джон Мюллер рассказал, как поисковые алгоритмы индексируют и отображают в выдаче дублированные страницы одного и того же сайта.







Последние новости

Подгружаем последние новости