Дубли страниц хорошо ли это?

Автор: | Дата: 08.01.2017

Мы наблюдаем такую ситуацию, что фильтры поисковой системы Яндекс накладываются не только на сайты, предназначенные для продажи ссылок, но также для качественных проектов. Причина в том, что ресурсы имеют много дублей, то есть повторного контента, который несет в себе негативное влияние на ресурс. Чтобы избежать таких последствий необходимо постараться, чтобы в поиске Яндекса не оказалось дублей, следить за этим стоит постоянно, так как множество ресурсов именно по этой причине заканчивают нормальное развитие и существование.

В чем выражается фильтр? Его также называют АГС, что в культурном переводе означает антивирус против плохих некачественных сайтов. Дубли страниц попадают не просто так, видимо на вашей площадке неправильно настроен файл robots.txt в следствии этого, поисковая машина сама дублирует материал.

Поначалу вам может показаться, что вы нормально развиваете проект, так как в индексе собралось уже приличное количество страничек, а значит, есть шанс выйти по каким-то запросам в топовую позицию. Но если промониторить выдачу вы обнаружите, что в поиске в несколько раз меньше страниц, чем вам казалось раньше.

Причиной тому именно дублированный контент. Чтобы избегать дублей на своем сайте необходимо в первую очередь настроить файл для роботов, то есть robots.txt. при правильной настройке он будет запрещать поисковой машине индексировать разделы на вашем сайте, в дополнении можно указать адрес карты сайта, для более быстрой индексации проекта.

В особо тяжелых случаях необходимо обратиться к специалистам, если будет необходимо мы проведем перенаправление дублей, то есть, когда робот будет заходить на дублированную страницу, он будет попадать на первостепенную статью, а значит, вскоре недействительные страницы выпадут. Данная операция требует дополнительных знаний.