Влияние дублей на продвижение сайта

Опубликовано:

На продвижение сайтов оказывает влияние большое количество факторов и некоторые из последних находятся в латентном, скрытом состоянии и это затрудняет работу по оптимизации. Сегодня сайты создаются по большей части при помощи CMS, позволяющих значительно сократить объем рутинной работы.

Однако из-за этой автоматизации может пострадать продвижение сайта в поисковых системах. На сайтах могут образовываться одинаковые страницы, но опубликованные по различными адресам.

Такого рода дублирование очень не нравится поисковым системам.

  • Ухудшается качество результатов поиска.
  • Возникает повышенная нагрузка на программно-аппартные ресурсы поисковых серверов.

Поисковая система, при обнаружении дублей, обычно склеивает одинаковые страницы – одна остается в индексе, а остальные повторы удаляются. Дополнительно, если дублирований будет обнаружено достаточно много, поисковая система может применить какой-либо фильтр и понизить ранжирование сайта в целом.

Как бороться с дублями

В широком смысле, к дублям можно отнести не только одинаковые веб-страницы, но и повторы другого года.

  • Повторяющиеся метатеги Title и Description – типичная проблема систем управления контентом.
  • Повторы контента на многих страницах.
  • И даже сайты-зеркала в определенном смысла являются дублями и тоже склеиваются поисковыми системами.

Создание сайтов необходимо поддерживать постоянным контролем, регулярными тестами и аудитами. С помощью специального программного обеспечения можно провести тест сайта и через несколько минут получить полный список дублирований, как по страницам, так и по метатегам. Хорошие конструкторы сайтов уже имеют встроенные модули для проведения разного рода проверок по сайту.

В идеале повторы желательно было бы полностью удалить. Если же это по каким-либо причинам невозможно, необходимо исключить нежелательные дубли из индексации, определить канонические страницы и настроить редирект с дубля на главную страницу.

Все это можно сделать в настройках файла robots.txt и в HTML-коде веб-страниц. Проблема в том, что поисковые системы в последние годы начали достаточно вольно относиться к запретам и настройкам по индексации контента. Так что, даже наличие запретов и редиректов не гарантирует, что поисковая система не будет учитывать дубли в своих индексах.

О пользе избавления от дублирований

Практика поискового продвижения показывает, что просто за счет удаления дублей метатегов Description и Title трафик из органического поиска возрастает примерно на 17%. Вполне серьезная цифра, чтобы немного поработать по удалению дублей.

Вопрос еще и в том, что поисковая система Google в качестве признака релевантности чаще всего использует Title. И если на сайте окажется большое количество одинаковых тайтлов, как прикажете поисковым роботам подбирать ответы на запросы пользователей?

Поисковой системе будет гораздо проще почистить выдачу от дублей по тайтлам. И в результате сайт лишается большого количества полноценных страниц с уникальным контентом в индексе. Затраченные труд и деньги на создание части страниц окажутся бессмысленными.

Продвижение сайтов в Казани можно значительно улучшить, если регулярно уделять внимание проверке сайта на автоматически возникающие дубли и своевременное удаление повторов.

При публикации новой страницы обязательно нужно сразу же вручную прописывать уникальные Title и Description. Опыт показывает, что если не позаботиться об уникальных метатегах сразу, в последствии руки уже и не доходят. Ведь у администратора сайта и без этого забот и хлопот хватает.