Перенос веб-сайта: ошибки, которых нужно избегать

Автор: | Дата: 22.11.2016

Между SEO-специалистами и разработчиками всегда была тенденция небольшого противостояния. Многие разработчики приравнивают SEO-специалистов к спамерам, а большинство оптимизаторов не имеет достаточного представления об архитектуре, языке и структурах данных для ведения внятного диалога о разработке. Поэтому, когда что-либо идет не так, очень легко обвинить другую сторону.

В данной статье предоставлен краткий список вопросов по переносу сайта. Я считаю, что данный список будет в пределах компетенции, как оптимизаторов, так и разработчиков.

1. Robots.txt

Это наиболее важная проблема, которой легче всего избежать. При копировании файлов из среды тестирования в реальную можно легко включить все файлы. Проверьте robots перед запуском и после него, а затем следите с помощью Google Webmaster Tools за количеством ошибок сканирования robots.txt в течение первой недели работы сайта.

2. Правильно переносите URL

Сначала проверьте в среде тестирования. Соберите список связанных URL из Google Webmaster Tools, затем замените реальный домен тестовым и зайдите на этот URL. Если вы получите ошибку 404, то перенос выполнен некорректно. Настройте URL так, чтобы старый контент указывал на более новый, или на главную страницу, если контент не существует.

3. Редирект 301 и 302

Наиболее огорчающим обстоятельством является то, что при разработке был использован редирект 302 вместо 301. 302 это временный редирект, означающий, что вес ссылки не будет передаваться. Это наиболее распространено в Microsoft ASP и asp.net, где Response.Redirect () является на самом деле 302-м редиректом. Опять же данную проблему очень легко устранить, но крайне важно сделать это.

4. Несколько редиректов 301

Несколько редиректов 301 приводят к потере ссылочного веса, поэтому если у вас есть ряд условий для перенаправления убедитесь, что создали строковую переменную, выполняющую все необходимые условия и затем выполните редирект. Каждое перенаправление приводит к нескольким, что замедляет скорость отклика, раздражает поисковых роботов и уменьшает вес входящих ссылок.

5. Мета-тег Robots

Это довольно редкий тег, но я видел работающий сайт с тестовыми директивами Robots, которые запрещали доступ поисковым роботам.

6. Один тег заголовка и мета описание для всего сайта.

Это главная проблема для оптимизаторов, поскольку сообщает поисковым системам о том, что на каждой странице на веб-сайте один и тот же контент. Данная проблема может может уничтожить любой рейтинг, который был прежде.

7. Неправильное использование Rel Canonical

Существует огромное количество великолепных сообщений об использовании атрибута rel=canonical, но проще говоря, эта директива сообщает поисковым машинам что одна страница такая же как и другая. Главной проблемой здесь является то, что, если вы с помощью rel=canonical сделаете главной каждую страницу сайта, то уничтожите шансы на ранжирование других страниц, кроме главной.