Как избежать проблем с дублированным контентом

Опубликовано:

Создание сайтов чаще всего производится с помощью систем управления контентом – это действительно очень удобно и выгодно. Однако автоматизация процессов веб-разработки имеет и обратную сторону. Частым явлением становится возникновение на страницах сайта повторяющегося контента.

Поисковые системы рассматривают повторяющуюся информацию на сайтах как признак низкого качества ресурса. Дубли контента склеиваются, а в поисковую базу данных добавляется произвольно выбранная компьютерными алгоритмами страница.

Проблема ведь в том, что поисковые алгоритмы не знают намерений веб-мастера и добавленная в индекс страница может оказаться совсем не той, которую хотел бы видеть в поиске сайтовладелец.

  • Например, для удобства пользователей веб-мастер создает для опубликованных на сайте статей версии для распечатки на принтере. Это очень полезная опция, особенно если текст требует углубленного изучения.
  • И вот поисковые роботы, обходя ресурс, обнаруживают два одинаковых содержания.
  • Поисковые компьютеры настроены на тотальную экономию аппаратного ресурса удаленных серверов и потому никаких повторов информации в поисковых базах не допускается.
  • Производится склейка дублей и в поиске оказывается страница для печати.

В результате такой некорректной склейки дублей пользователи интернета не могут получить прямой доступ к сервисам сайта и онлайн-бизнес идет хуже, чем хотелось бы владельцам проекта.

Простые способы как избежать проблем с дублями

Разработка сайтов на платформе CMS должна сопровождаться регулярными тестами ресурса, аудитами, в процессе которых будут выявляться скрытые проблемы, в том числе и нежелательные дублирования контента.

В некоторых случаях автоматически сгенерированные дубли удалить невозможно, поскольку это ухудшит пользовательский опыт либо будет мешать коммерческой деятельности.

В таких ситуациях необходимо помочь поисковым системам выбрать “правильные дубли” для добавления в Индексы.

  • Для указания “главного дубля” можно использовать атрибут Rel=canonical. В большинстве проблемных случаев с дублями этот метод является оптимальным.
  • Установить редирект 301 с дублированной страницы на исходную. Этот метод подойдет не всегда, поскольку дублированные страницы не будут отображаться. Например, редирект нецелесообразен для страниц с печатными версиями текстов.

В большинстве ситуаций для решения всех проблем с возникающими дублированиями контента вполне достаточно этих двух способов.

Иногда в качестве более радикальных средств может быть применена блокировка повторяющихся страниц в файле Robot.txt и использование атрибута Noindex в HTML-кодировке.

Не все дубли одинаково вредоносны

Например, если создание сайтов Казань сопровождается параллельным создание форума или блога, то в лентах комментариев, обсуждений нередко пользователи делают своеобразный “репост” отрезков текста для облегчения понимания ответного сообщения.

Такие дубли не будут расставаться поисковыми алгоритмами как нарушение правил. Поисковые алгоритмы с каждым годом становятся все умнее, учатся понимать смыслы публикуемого контента. Особенно эта интеллектуализация поисковых алгоритмов относится к таким гигантам интернета, как Google и Яндекс.

Создание сайтов в Казани для эффективного онлайн-бизнеса – комплексная задача для настоящих профессионалов, причем, в различных областях интернет-технологий и маркетинга. Даже малозаметные ошибки, такие, как дублированный контент, могут существенно повредить поисковому продвижению и превращению случайных посетителей в постоянных покупателей.