Как удалить повторы результатов из поиска по сайту?
Движок этого блога - довольно старый. Один из типовых его недостатков - передача некоторых параметров методом GET, то есть, прямо в адресной строке. Например, так передаётся порядковый номер записи s
, с которой нужно начать просмотр ленты.
Что мы имеем? Например, два адреса
http://chototam.ru/script.php
и http://chototam.ru/script.php?s=10
, которые являются одной страницей и абсолютно одинаковы по содержимому, но с точки зрения поискового робота представляют собой разные страницы. До недавнего времени крупные поисковики прекрасно такие адреса "склеивали", то есть, воспринимали как одну и ту же страницу. Google умеет это и до сих пор, а вот Яндекс, в рамках импортозамещения, с недавних пор разучился, в результате чего получаем такие вот ужасы:
дубликаты в поиске по сайту
Ну и на других сайтах аналогично. Меж тем, решений как минимум два:
- Директива Clean-param для файла
robots.txt
. Например, в нашем случае указываемClean-param: s
и страницы в Яндексе должны "склеиться" (теоретически, на практике этого до сих пор не произошло);
- изобретённый Гуглем ещё в 2009 году тег rel=canonical для удаления дубликатов страниц.
Яша, теоретически же, тоже поддерживает.
Ну а самый простой путь - добавив директивы и не удаляя поиска от Яндекс, который, может быть, когда и исправится, сделать на одной странице оба поиска :) Жаль, что всегда лень заняться технической стороной бесплатных проектов, в том числе, блога. Впрочем, в рамках того же "импортозамещения", теперь практически бесплатны все виды работ, даже основная :)
16.03.2016, 23:13 [5607 просмотров]