SEO блог создан с целью помочь Вам, начинающему или практикующему манимэйкеру создать по-настоящему полезный и “правильный” блог и показать Вам доступные пути его монетизации. Подписывайтесь на RSS и заглядывайте почаще, будет интересно!
29 Март

Как не попасть под антиплагиатные фильтры Яндекс и Google?

Автор: Ruslan Категория: Поисковая оптимизация
Твитнуть

Антиплагиатные фильтры Яндекс и Google

Самым серьёзным препятствием для сайта на пути к высоким позициям в рейтинге выдачи популярных поисковых систем Яндекс и Google являются их фильтры, попадание под которых является следствием допущения нарушений и ошибок при продвижении. Практика показывает, что чаще всего сайты страдают от фильтров, которые ведут борьбу с некачественным контентом.


Смотрите полный видеокурс на iTunes

В первую очередь, речь идёт о текстовом наполнении площадки, которое должно быть качественным и уникальным, иначе санкций со стороны поисковых систем не избежать. Рассмотрим, что нужно знать владельцу сайта, чтобы его ресурс никогда не попал под влияние фильтров, борющихся с плагиатом.

Уникальный контент – что это?

Единственным способом не попасть под фильтры Яндекс и Google является использование качественного, интересного посетителям сайта и, что самое главное – уникального текстового контента. Что же следует понимать под уникальным контентом, который так любят фильтры Google и Яндекс? Под этим термином кроются текстовые материалы, не имеющие аналогов в сети интернет. Иными словами, статьи, которые не размещены ни на одном их других ресурсов сети.

Абсолютная уникальность текстовых материалов не достижима, поскольку возможности даже такого великого языка, как русский, ограничены, и каждую фразу, каждое выражение или словосочетание уже наверняка употреблял в своих статьях кто-то другой. Поисковые роботы «понимают» это, и не требуют от сайтов невозможного – они допускают потерю уникальности в пределах 5-10%. Иными словами, на сайте можно спокойно размещать текстовые материалы с уровнем уникальности 90-95%, и это не станет причиной попадания площадки под фильтры.


Смотрите полный видеокурс на iTunes

Определить уникальность текстов можно, воспользовавшись одной из специальных программ или онлайн сервисов, предназначенных для идентификации дублированного контента. Достаточно просто вставить проверяемый текст из буфера обмена в специальное окно сервиса или программы, чтобы они проверили его на наличие совпадений в сети и показали процент таких совпадений. При этом можно устанавливать свои критерии поиска, такие как количество слов в словосочетании – чем оно больше, тем лояльнее проверка и снисходительнее результат. С помощью таких программ можно не только выявить плагиат, но и определить площадку, с которого «заимствована» статья.

Это достигается посредством того, что в по итогам оценки программа высвечивает общий процент совпадений, а также демонстрирует их в разрезе отдельных ресурсов с указанием их URL. Пройдя по таким ссылкам, можно удостовериться в том, что там действительно размещены аналогичные или частично совпадающие по форме текстовые материалы.

Дубли на сайте – как от них избавиться?

Для того чтобы площадка не попала под фильтры Яндекс и Google, необходимо постоянно следить за тем, какой контент размещается на ней. Необходимо проверять на уникальность каждый загружаемый текст, а уже имеющиеся на сайте статьи регулярно проверять на наличие дублей.

Такая необходимость обусловлена тем, что «если не ты, то тебя» — иными словами, весь авторский текстовый контент сайта находится в открытом доступе, и ничто не мешает недобросовестным конкурентам заимствовать его для наполнения собственных площадок. При обнаружении таких совпадений поисковые роботы без суда и следствия накажут оба сайта, поэтому донорам нужно держать ухо востро.

Чтобы не попасть под фильтры Google и Яндекс, необходимо время от времени проводить на сайте своего рода генеральную уборку, в ходе которой следует проверять на уникальность каждую статью. При обнаружении дублей следует, либо убрать их с сайта, либо доработать таким образом, чтобы уровень их уникальности поднялся до минимально необходимого уровня – 80%. Когда дублированные статьи невозможно удалить или исправить, как вариант, можно скрыть их от индексации с помощью файла robots.txt.

Воспользовавшись специальными директивами и указав адреса страниц, на которых размещены дублированные тексты, можно сделать их невидимыми для поисковиков, тем самым оградить себя от перспективы попадания под действие фильтров. Почему же фильтры, ведущие борьбу с плагиатом, являются страшным сном всех владельцев ресурсов сети? Всё дело в тех последствиях, к которым может привести попадание сайта под фильтры. Если размещать на площадке дублированный контент, то нужно быть готовым к тому, что рано или поздно (рано – более вероятно) площадка подвергнется санкциям со стороны поисковиков и будет понижена в ранге, либо вообще выброшена из индекса с запретом на возврат.

Более того, иногда сайты попадают в поисковый бан, откуда нет дороги назад. Таким образом, попадание под фильтры поисковых систем при серьёзных и регулярных нарушениях может стоить сайту жизни, а его владельцу – больших финансовых потерь, а также сил и времени, которые пришлось потратить на то, чтобы создать площадку и поставить её на ноги.

Буду благодарен, если поделитесь этой статьей:

Добавить комментарий
Имя (обязательно)
E-mail (обязательно)
Комментарий