SEO: Дублирование контента

Довольно часто на пути web- программистов и оптимизаторов к высоким позициям ресурса в поисковых выдачах появляется проблема дублированного контента, потому что роботы поисковики негативно относятся, как к полному, так и к частичному дублированию информации.

SEO:Дублирование контента.


Смотрите полный видеокурс на iTunes

Чем вреден дублированный контент?

Наполнение контентом сайта – первый этап после создания сайта, но даже на этом раннем этапе может появиться эта проблема. Дублированный контент может привести сайт к следующим проблемам: основная проблема — понижение места сайта в выдачах поисковых систем, потому что купленные ссылки могут приводить не только к той странице, которая имеет индекс в поисковой системе, из-за чего может произойти лишение сайта индекса. Давайте постараемся разобраться, когда может произойти дублирование информации на сайте, блоге и т.д., чтобы предотвратить все негативные последствия. Итак, хочется сказать, что всегда нужно проверять информацию на уникальность, а уже после проводить наполнение контентом сайта.

Источниками дублирования контента могут быть:
1) RSS-ленты
2) Служебные сайты и страницы
3) Страницы, которые предназначаются для печати
4) Дубли информации, создаваемые системой, чтобы управлять ресурсом (CMS) Решается эта проблема так же легко и быстро, как и появляется – запретом некоторых страниц и частей сайта к индексации.

А как проверить информацию на наличие дубликатов?

Узнать находятся в сети дубликаты информации, продвигаемого сайта можно при помощи нескольких способов:
1. С помощью бесплатного программного обеспечения: double content finder, eTXT Антиплагиат и advego plagiatus.
2. Проверить в онлайн режиме: copyscape.ru, findcopy.ru, antiplagiat.ru istio.com.
3. При помощи поисковой системы. К примеру, чтобы Yandex показал все страницы, скрытые от глаз человеческий нужно написать в строку поиска: “я ищу:” имя ресурса, который нужно проверить на наличие дублей. Или же во время расширенного поиска в строку “на сайте” ввести имя сайта и нажать на поиск. Yandex покажет все страницы, имеющие совпадения с нужным для Вас ресурсом.

Что делать, если дублированный контент имеется?

Нужно начинать так называемую генеральную уборку и удалять весь контент, имеющий дубли на продвигаемых Вами страницах. Если текст не хочется или нельзя удалить, его можно закрыть от индексации в поисковике. Помогут Вам в этом некоторые инструменты. Мета-тег robots, который находится в коде сайта. Данный тег должен обладать следующими атрибутами: index, что означает индексировать, follow – учитывать ссылки или нет, noindex – не нужно индексировать, none – ничего не индексировать и all – индексировать всё. Этот тег – простейший инструмент, чтобы указывать роботам-поисковикам нужно и можно индексировать сайт или нет, а также следовать ссылкам, которые на нём размещены или нет.

Существует и другой вариант тег от Yandex “noindex”

С помощью данного тега можно закрывать абсолютно любую часть информации, которая расположена на сайте. Робот будет видеть эту информацию, но не будет учитывать её.

Файл “Robots.txt”

Ранее мы уже неоднократно говорили о robots.txt. Давай вспомним то, что этой текстовый документ, который размещается в корневой папке web-ресурса. В этом файле указываются некоторые инструкции для роботов-поисковиков. Данные инструкции запрещают или разрешают к индексации те или иные разделы сайта. При помощи данного файла можно указывать основное зеркало сайта, а также рекомендовать роботу соблюдать установленный интервал между скачками файлов с web-сервера.

Как видно, бороться с дубликатами контента очень легко, но также этого можно избежать. Во время создания web-сайта проведите оптимизацию сайта, техническую оптимизацию. Решением этой проблемы также может быть создание карты сайта. Это очень актуально для сайтов, контент которых ежедневно обновляется. Наполнение контентом сайта – еще один рискованный момент, всю информацию желательно проверить в специальных программах, представленных вначале.

Уникальный текст – основное условие, чтобы продвигать сайт в поисковых системах. Но статьи, которые написаны собственноручно или по заказу не гарантируют Вам избавление от проблемы с дублями информации. Если устранить эту проблему вовремя, то можно добиться заметных результатов, продвигая сайт намного быстрее.

17.10.2012

101 просмотров

,

Нравится 0
Загрузка...

Комментарии

Оставьте первый комментарий!

avatar
wpDiscuz