Как не попасть под фильтр. Что такое фильтры поисковых систем? Наращивать ссылочный профиль нужно непрерывно

Что делать, если вы долгое время работаете над своим сайтом, наполняете его контентом, занимаетесь продвижением, а результатов никаких: в результатах поиска его нет и посещаемость не растет. Скорее всего ваш сайт попал под фильтры поисковых систем или даже в полный бан.

О том, как избежать штрафных санкций со стороны поисковых систем, в Интернете написано немало, но, несмотря на обилие информации, масса новичков, все-таки, наступает на грабли и пополняет своими сайтами армию ресурсов, игнорируемых Яндексом или Google.

Что такое фильтры поисковых систем?

Фильтры – это определенные санкции, которые накладывает на те сайты или разделы сайтов, которые он считает некачественными или нарушающими какие-либо правила. Тем самым, наложением фильтров, поисковик пытается очистить поисковую выдачу от всякого мусора и нечестных накруток. Действие фильтров очень просто ощутить.

Если вы заметили, что страницы вашего сайта не или выпадают из индекса, то, скорее всего, наложен фильтр.

Если, несмотря на обилие контента на вашем сайте, даже оптимизированные страницы не попадают на высокие позиции в выдаче и стремится к нулю, то и тут вероятно наличие фильтров.

Фильтры могут накладываться как на отдельные страницы сайта, так и полностью на весь ресурс. Крайний случай – бан всего сайта. Есть и такие фильтры, которые не сразу заметны, они не действуют напрямую на сайт, а влияют на исходящие с него ссылки () – они не учитываются поисковой системой.

Как избежать фильтров поисковых систем?

На самом деле, избежать попадания под фильтр несложно. Достаточно понимать как работают поисковые системы, об этом написано и придерживаться одного простого принципа – делайте все честно: ведите себя честно по отношению к поисковикам, другим сайтам и пользователям Интернета.

Как это сделать на практике:

    Не увлекайтесь чрезмерной оптимизацией своих текстов под ключевые запросы. Если в каждом предложении вашей статьи будет мелькать одно и то же словосочетание, то и человеку и поисковику будет ясно, что материал создан специально для того, чтобы повлиять на поисковую выдачу. Такой спам ключевыми словами надолго закроет дорогу в ТОП поисковых систем.

    Избегайте резких изменений ссылочной массы ведущей на ваш сайт. Естественным образом не может одновременно появиться огромное количество одинаковых ссылок на ваш сайт, точно также не может и одновременно пропасть. Если такое происходит, то поисковик считает, что все эти ссылки покупные, а значит, не говорят о реальном качестве ресурса. Собственно, резко появляться и пропадать только покупные ссылки и могут.

    Не усердствуйте с продажей ссылок на вашем сайте. Превращая каждую страницу сайта в помойку с огромным количеством ссылок, вы даете понять поисковику, что сайт создан не для людей, читающих его материалы, а для продажи ссылок, что подтолкнет сайт к зоне риска.

Название и описание фильтров можно прочесть на этом форуме http://www.seo-forum.ru/showthread.php?t=70

Работа фильтров поисковых систем на практике

Совсем не обязательно, что какой-то один из факторов риска приведет к наложению фильтров и бану сайта. Есть сайты, которые годами наполняются копированным контентом, есть сайты которые прекрасно себя чувствуют, продавая огромное количество ссылок, но все они находятся на грани и могут быть наказаны в любой момент.

Бывают ситуации, когда под поисковые фильтры попадают нормальные сайты или сайты, которые могут стать нормальными при незначительном вмешательстве, тогда их можно спасти. Для этого необходимо навести порядок, и избавиться от всех нарушений, а, затем, написать в службу технической поддержки поисковой системы. Если ресурс действительно стоящий, то вероятность восстановления всех позиций очень высока.

Полезные статьи:


  • Как заработать деньги в интернете новичку – 23…

  • Что такое блог, как его создать, раскрутить и как…

  • Как создать сайт самому бесплатно – пошаговая…

Фильтры Яндекса – основные понятия

День добрый, читатели моего блога. Те из Вас, кто постоянно читает мои статьи уже мог понять, что я часто бываю на различных СЕО форумах , общаюсь с оптимизаторами и веб мастерами, стараюсь помочь новичкам разобраться в начальных этапах освоения мира оптимизации и продвижения своих проектов. Чаще всего новички бегут за помощью тогда, когда их сайт резко падает в выдаче, уменьшается количество проиндексированных страниц или вообще он получает бан от поисковых систем. Все эти негативные последствия наступают в результате наложения различного рода фильтров и банов за нарушения правил продвижения и развития своего сайта. Ранее я уже рассказывал про фильтры Гугла , и о том, как от них уберечься. Сегодня речь пойдет о всевозможных фильтрах и наказаниях которые ваш сайт может получить от Яндекса.

Итак, фильтры Яндекса – что это такое? Под этим определением стоит понимать определенные санкции которые поисковая система накладывает на весь сайт или отдельные его страницы. Чаще всего такие санкции проявляются в понижении позиций, удалении некачественных страниц из поиска, ухудшении продвиженя сайта в ПС и других негативных влияниях. Анализируя проблему, которая возникла с вашим сайтом, можно сделать вывод, что он попал под тот или иной фильтр. В зависимости от фильтра, мы можем сделать вывод о том, как вернуть сайту былые «заслуги» и продолжить его развитие.

До того, как я перейду к анализу самых частых фильтров от Яндекса, хотелось бы отметить, что ни один сайт не попадает просто так в немилость поисковых алгоритмов. Конечно, бывают ошибки, но они настолько мизерны и быстро решаются написанием запроса в техподдержку Яндекса. Помните, что 99.9% случаев попадания под фильтр – это дело рук самих оптимизаторов, которые не придерживались рекомендаций по оптимизации сайта, и для продвижения использовали методы черного СЕО.

Рекомендуем прочитать:

Фильтр АГС – гроза всех новичков

Самым «популярным» фильтром можно считать «фильтр АГС (анти гавно сайт)». Исходя их личных наблюдений, могу сказать, что это один из самых жестких и радикальных фильтров который режет как молодые, так и уже довольно устоявшиеся сайты. Существуют два фильтра: АГС – 17, и его улучшенная версия АГС – 30. Уже из самого названия можно понять, с чем борется этот пресловутый фильтр. Основная его цель – фильтрация выдачи от некачественных сайтов, сателлитов, откровенных ГС которые созданы с нарушениями основных правил оптимизации.
Какие признаки попадания под фильтр АГС?

Как правило, фильтр бьет по страницам в выдаче, нещадно их выкидывая из поиска. При проверке вы можете обнаружить, что осталась только одна страница, чаще всего главная, или не больше 10 (главная и основные разделы). В результате этого всего резко падает трафик, проседают позиции и сайт улетает далеко за ТОП100.

Как не попасть под АГС?
Прежде всего вы должны создавать сайт для людей, писать качественные статьи. Напрочь забудьте про копипаст или синонимайзер. Поисковые роботы обучаются с каждым днем, и уже сейчас они с легкость могут распознать уникальный, грамотный и осмысленный текст.
Соблюдайте рекомендации по оформлению статей, структурированию сайта, оптимизации кода и т.д. Более детально про это я написал в своей статье «Как продвигать свой сайт – улучшаем позиции в поисковике»
Не использовать методы черного СЕО, а если у Вас сайт молодой, то также отказаться от серых способов продвижения. На многих сео форумах рекомендуют начинать ссылочное продвижение не ранее чем через 3, а в некоторых случаях и 6, месяцев после создания сайта.
Регулярно проверять сайт на наличие дубликатов, ошибок в коде и отображении страниц различными браузерами.
В общем, нужно следить за своим творением, делать его для людей, использовать только честные и не запрещенные методы продвижения. Как правило, хороший сайт АГС не трогает, но нужно понимать, что все делается автоматически и робот может допустить ошибку. Вы уверенны что сайт у Вас отличный, никаких проблем с ним не было, но после очередного апа в выдаче осталась одна страница? Тогда срочно пишите Платонам в тех. поддержку Яндекса.

Рекомендуем прочитать:

Как вывести сайт из под АГС?
Бывает так, что по незнанию или по глупости накосячили. Сайт попал под АГС. Вы можете его оставить и начать развивать новый проект. Но, чаще всего, не хочется просто так расставаться со своим творением. Тогда нужно думать как выводить сайт из под фильтра. Для начала нужно разобраться за что ж Вам дали фильтр, что именно стало той отправной точкой. Если вы знаете, что занимались копипастом, то срочно удаляйте все чужие статьи и меняйте их на оригинальные. В чем бы не была проблема, но очевиден один факт – ее нужно устранять.

Мой совет – при попадании под АГС вы должны:
1. Закрыть сайт от индексации полностью
2. Проанализировать ситуацию и найти причину фильтра
3. Исправить причину. Но не просто исправить, а сделать сайт еще лучше. Больше уникальных статей, хороший дизайн, правильная структура, оптимизировать мета теги и правильно структурировать контент.
4. После того как вы сделаете из ГС конфетку, открывает сайт для индексации
5. Прогоняем сайт по твиттеру, Я.ру, Гугл+ и другим социальным закладкам. Это даст сигнал поисковому роботу, и он быстрее зайдет на ваш сайт.
Моментального возвращения страниц и позиций ждать не стоит. Как минимум 2-3 апа подвижки если у будут, то очень слабенькие. В случае, если вы все правильно и качественно сделали, сайт может выйти из под АГС за 1-1.5 месяца.

Непот фильтр – самый старый фильтр Яндекса

Наверное, это один из самых старых фильтров которым активно пользуется Яндекс. Но по полной его действие веб мастера ощутили в конце 2010 года. Именно тогда Яндекс всех познакомил со своим новым алгоритмом и заявил, что будет активно бороться с продажей ссылок, так как считает такой вид продвижения манипуляцией выдачей. Не сильно пугайтесь, борьба идет, но пока выигрывают оптимизаторы. Если вы грамотно закупаете ссылки, умеете выбрать хорошего донора , то никакой Непот фильтр Вам не страшен.

Рекомендуем прочитать:

Теперь ближе к сути. Как работает Непот фильтр?
В основном санкции накладываются на сайты, которые усердно и в открытую торгуют ссылками, и на те сайты, которые сильно перенасыщены исходящими линками. Если сайт попадает под Непот фильтр, то ссылочные вес, который должен передавать бек линк, становится минимальным, а то и вообще сводится к нулю. В результате страдает не только донор, получивший пендаля от поисковой системы, но и оптимизатор, который разместил ссылку на таком сайте, ведь эффекта от нее не будет.

Как не попасть под Непот фильтр?
Тут все очень просто. Если вы уже и решили продавать ссылки, то делайте это аккуратно и с умом. Старайтесь на одной странице не размещать больше 3-4 ссылок. Если ссылка ведет на сайт о кулинарии, то подберите для нее близко тематическую статью, а не пихайте в первую попавшуюся.
Не занимайтесь массовой продажей ссылок. К примеру, многие загоняют свои сайты в ссылочную биржу Sape и за месяц на сайт можно набрать до 1000 ссылок. Конечно, такое резкое увеличение исходящих беков привлечет внимание робота и велика вероятность получить фильтр.
Как выйти из под фильтра?

Для того, чтоб избавиться от фильтра, нужно проанализировать беки которые вы ставили, убрать те, что ведут на откровенные ГС, подозрительные сайты, сайты с вирусами и adult темой.

Фильтр Яндекса – Ты последний

Очень странное название у фильтра, но не в этом суть. Основная цель данного алгоритма – отсеять сайты с неуникальным контентом, те сайты, которые в наглую воруют статьи с других ресурсов. Думаю, что для вас не станет открытием то, что роботы Яндекса за секунды могут определить уникальность статьи, и даже понять с какого ресурса она была стянута.

Рекомендуем прочитать:

Как работает данный фильтр?
Сайт с не уникальным контентом сильно понижается в выдаче. Его будет тяжело найти даже за пределами ТОП100. Как правило, такие сайты занимают самые последние места по разным запросам, возможно из-за этого фильтр и имеет такое название.

Как не попасть под фильтр?
Размещайте уникальные статьи, особенно если у Вас молодой ресурс. Старые, трастовые сайты иногда могут себе позволить скопировать статьи с других сайтов, но им это прощается, ведь они имеют лимит доверия со стороны поисковиков. Молодые не могут себе такого позволить. Копипаст – это реально проблема. Если не данный фильтр, то АГС можно схлопотать без проблем.

Как выйти из под фильтра?
Тут особых ухищрений нет. Удаляем скопированный текст и пишем новый, красивы, грамотно структурированный контент.

Приветствую вас, уважаемые посетители блога. Сегодня я расскажу вам о фильтре яндекса АГС, а также о том, как на него не нарваться.

Как вы уже знаете, поисковые системы требуют от веб-мастеров создавать только качественные сайты для людей. У каждой из поисковых систем свое понятие касательно СДЛ, однако, если вы будете пренебрегать их советами, то рано или поздно поисковые системы наложат на ваш сайт санкции или, как еще говорят, ваш сайт попадет под фильтр ПС.

Например, у Гугла один из фильтров называется Панда. Что касается Яндекса, то у него есть фильтр под названием АГС, и именно этой теме я и хотел бы посвятить данную статью, рассказав, что это за фильтр, по каким причинам ваш сайт может туда попасть и как этого избежать.

Итак, я уже сказал о том, что АГС представляет собой санкции по отношению к сайту от поисковой системы Яндекс.

Почему этот фильтр назвали именно АГС, я не знаю, но некоторые строят предположения, что фильтр создан для борьбы с ГС, поэтому и получил такое название, которое некоторые веб-мастера расшифровывают как анти-ГС.

В принципе они в чем-то правы, так как АГС действительно создан для борьбы с сайтами, которые не несут пользы для посетителей.

Принцип его работы достаточно прост – если поисковый робот посчитает, что ваш сайт не удовлетворяет определению качественного сайта для людей, то все страницы веб-сайта, которые есть в поиске, вылетят из него, и останется там только главная страница. Но бывает и такое, что в поиске может остаться немного больше страниц, например, 3-5, которые со временем также могут быть исключены из поиска.

Давайте разберемся, по каким причинам Яндекс может наложить санкции на ваш сайт? Если отвечать на этот вопрос, то список будет просто огромным, так как при определении качественного сайта Яндекс обращает внимание на многие факторы, некоторые из которых до сих пор неизвестны даже веб-мастерам. Поэтому я перечислю наиболее частые причины, по которым Яндекс может занести ваш сайт в фильтр АГС.

Неуникальный контент. Думаю, все вы знаете, что очень плохо воровать статьи с других сайтов, так вот фильтр АГС это еще одна причина, по которой вам стоит отказаться от этой затеи.

В принципе, справедливое решение, ведь каждый владелец качественного web-сайта работает над ним, вкладывает в него свою душу, так почему кто-то решил, что может пользоваться его трудами, на которые веб-мастер тратил свои силы и время?

Заспамленность ссылками. Еще одна причина, по которой ваш сайт может попасть под АГС – слишком большое количество исходящих ссылок. Совсем не важно, каково происхождение этих ссылок – продажа или спамеры, но если исходящих ссылок будет больше, чем входящих, то это очень плохой показатель для сайта.

Не качественные внешние ссылки. Как вы знаете, каждая ссылка, ведущая на ваш сайт, добавляет ему дополнительный вес. А что если ссылка будет размещена на каком-то из сайтов, находящихся под фильтром? Вполне вероятно, что АГС может навестить и вас.

Плохие поведенческие факторы. Еще как вариант, почему яндекс может зафильтровать ваш сайт. Для чего создан АГС? Правильно, для борьбы с некачественными сайтами. Так вот задумайтесь над тем, что должен подумать Яндекс, если заметит, что посетители закрывают ваш сайт, не успев его открыть? Конечно же, он сделает выводы, что ваш блог или сайт не интересен посетителям и отнесет его к ГС.

На мой взгляд, это наиболее частые причины, по которым Яндекс банит сайты, поэтому перечислять данный список я закончу и перейду к следующему вопросу.

Как проверить попал ли сайт под фильтр АГС

Если у вас уже есть собственный web-ресурс, то вам наверняка будет интересно узнать, а не попал ли он под фильтр АГС? Поэтому ниже я дам несколько рекомендаций по поводу того, как это проверить.

Раньше с АГСом была немного другая ситуация, нежели сейчас, и если почти все страницы сайта выпадали из поиска, то считалось, что сайт с большой долей вероятностью попал под АГС.

Однако сейчас Яндекс изменил свою политику относительно данного фильтра, и совсем недавно у многих сайтов, находящихся под АГС, страницы стали возвращаться в поиск, зато произошли изменения с параметром ТИЦа.

Самое низшее значение ТИЦа это 0, но если сайт под АГС, то Яндекс лишает сайт возможности получить ТИЦ, приписывая ему значение ТИЦа «не определено». Проверить это можно вбив в адресную строку адрес http://yaca.yandex.ru/yca/cy/ch/вашсайт.ру , где вместо значения вашсайт.ру нужно вписать адрес вашего сайта.

Для сравнения я нашел один сайт, на который Яндекс наложил санкции, поэтому давайте посмотрим, что нам будет выдавать. Web-сайт, на который не наложен фильтр АГС:

Сайт, на котором присутствует фильтр АГС:

Даже если у сайта, на который не наложен АГС значение ТИЦа равно нулю, то нам должно выдавать значение 0, а не «не определен». Также есть некоторые сервисы, которые определяют, находится ли сайт под АГС, но, как правило, они не могут сообщить об этом с первого дня попадания сайта под АГС и на этом им требуется время. Но тем не менее давайте их все-таки рассмотрим.

Первый сервис xtool . Интерфейс там довольно простой, поэтому расписывать его не буду. Чтобы проверить сайт на АГС, нужно в поле для адреса сайта вводим свой домен и нажимаем проверить, после чего вам выдаст много информации о сайте, и в одной из колонок будет находиться информация об АГС:

Сайт, который я ввел, действительно находится под АГС, о чем свидетельствует красный кружок. Также обратите внимание на другие две колонки, которые я выделил. На сайте очень много ссылок, которые превышают количество внешних ссылок, а это, как я говорил в причинах АГСа, очень плохо, поэтому значение заспамленность ссылками в красных кружочках.

Другой способ узнать об АГСе – воспользоваться расширением для браузера мозилла RDSBar. Если фильтр наложен на ваш сайт, то в этом инструменте это также будет отображаться:

Как не попасть под фильтр АГС

Осталось рассмотреть один из важных вопросов данной статьи – как не попасть под фильтр АГС. В принципе, я уже перечислил выше причины попадания web-сайтов под фильтр АГС, поэтому нужно просто не совершать этих ошибок. Не воруйте чужие статьи, пишите их сами.

Если у вас плохие показатели поведенческих факторов, то подумайте, каким образом можно сделать ваш сайт более привлекательным. Например, изменить дизайн или стиль написания статей, устроить конкурсы на сайте, в общем, экспериментируйте, добавляя на сайт новые интересные фишки, которые могут понравиться вашим посетителям.

Время от времени проверяйте свою ссылочную массу, удаляя не нужные ссылки с сайта или закрывая их от индексации. Ну и конечно соблюдайте элементарные правила сео-оптимизации. В общем, как говорит Платон Щукин (тех. поддержка Яндекса), работайте над своим сайтом и развивайте его, делая интересным для людей, и тогда любые фильтры и санкции вам будут не страшны.

На поисковых системах лежит огромная ответственность - предоставлять пользователям Интернета информацию, которая в полной мере удовлетворяет их запрос. Однако с течением времени, количество сайтов начало увеличиваться со скоростью геометрической прогрессии. Не все они обладают качественным и востребованным контентом, а некоторые ресурсы созданы исключительно для извлечения прибыли. В связи с этим были созданы фильтры поисковых систем, которые понижают позиции сайта при выдаче или блокируют ресурс.

Особенности работы фильтров

Прежде всего, необходимо понимать, как работают фильтры поисковых систем. В целом поисковики накладывают санкции в нескольких случаях:

  • Тексты и микроразметка. Фильтры поисковых систем срабатывают в случае, если на сайте обнаруживается большое количество спама (заспамленность текста можно проверить при помощи программ на проверку уникальности текста). Негативно сказывается на качестве ресурса излишняя оптимизация, а также избыток ключевых запросов в структуре текста (заголовки, подзаголовки и т.д.).
  • Ссылочная масса. За неестественно быстрое наращивание ссылочной массы (в частности внешней) ресурс может попасть под фильтры. Также негативно сказывается на поисковой выдаче спам в анкорах, избыточная перелинковка и манипулирование ссылками. Например, прогон или ссылочные кольца.
  • Поведенческие факторы. Под фильтры поисковых систем подпадает также накрутка и размещение на страницах невидимых элементов, с которыми взаимодействует пользователь, но не подозревает об этом. Непроститльным является перенаправление пользвателей на площадку, что не соответствует их запросу.
  • Реклама. Не последнюю роль в появлении санкций играет рекламное содержимое сайта. Рекламные объявления не должны быть навязчивыми или избыточными. Более того поисковики могут понизить в выдаче тот сайт у которого для мобильных версий «припасена» агрессивная реклама, такая как подписка или клики. Также существуют фильтры, что ограничивают деятельность сайтов, на страницах которых был замечен контент категории «18+»
  • Идентичные сниппеты. Если рядом со ссылкой в поисковой выдаче появляется одинаковая информация для отдельных ссылок одного сайта, то это может послужить причиной для наложения на сайт санкций. Подобное зачастую происходит с интернет-магазинам у которых обширный ассортимент товаров одного вида.
  • Аффилиаты. Фильтры поисковых систем крайне отрицательно относятся к группам сайтов, что принадлежат одной кампании и созданы специально для того, чтобы вывести основной ресурс в ТОП.

Для каждого этого случая созданы специальные программы-фильтры или поисковые алгоритмы, которые тщательно следят за чистотой оптимизации, предотвращая появление некачественного контента в поисковой выдаче. Каждая поисковая система обладает своими ограничителями, которые успешно справляются с этой задачей

Основные фильтры «Яндекс»

На обширном пространстве Рунета «Яндекс» был и остается основной поисковой системой. С каждым годом он ужесточает требования к сайтам и создает все новые и новые фильтры. Начинающие веб-мастера боятся попасть под жестокие санкции этого поисковика, поэтому чтобы успешно продвигать свой ресурс необходимо знать «враг в лицо», то есть иметь представление об основных фильтрах поисковой системы «Яндекс».

  • АГС «Яндекса», по отзывам интернет-маркетологов, считается самым жестким фильтром, ведь в свое время он успешно блокировал не одну сотню ресурсов. Основная его деятельность направлена на борьбу с сайтами, которые продают ссылки и повышают нелегальным образом позиции других ресурсов, хотя сами по себе не несут полезной информации.
  • «Непот-фильтр » был создан по образцу АГС. Однако его задача более узкая: блокировать только те ресурсы, которые продают ссылки. Фильтр определяет сайт, занимающийся несанкционированной деятельностью, и накладывает ограничения, которые утилизируют ссылочный вес продвигаемого ресурса.
  • «Ты последний ». Этот фильтр с незатейливым названием ориентирован только на понижение позиций сайтов с неуникальным контентом. Однако это не причина его игнорировать. Зачастую санкциям подвергаются тексты, в которых уникальность ниже 92%.
  • «Новый домен ». Это, скорее, не фильтр, а своего рода ограничение, не позволяющее только что созданному ресурсу занимать лидирующие позиции.
  • «Ты спамный ». Фильтр на отслеживание спама внимательно следит за качеством контента на сайте, и если текст переоптимизирован, то позиция ресурса падает в выдаче. Важно понимать, что обилие ключевых запросов не является гарантией того, что сайт займет хорошое место в топе. Любая информация должна быть, в первую очередь, полезной для пользователя, а уже потом соответствовать требованиям поисковых роботов. Вряд ли пользователь выявит желание просматривать простыню текста, где по нелепой "случайности" практически в каждом предложении присутствует ключевой запрос, но отсутствует необходимая информация.
  • «Аффилиат ». Яндекс внимательно следит за кампаниями, которые пытаются продвинуть свои основные ресурсы посредством создания дополнительных сайтов и перелинковки между ними. Если на таких площадках находится уникальная и полезная информация, то они будут иметь право на жизнь, но если контент создан только ради контента, то ресурс могут запросто заблокировать.
  • «Редирект ». Этот фильтр ведет активную борьбу с дорвеями, то есть с сайтами, перенаправляющими пользователей на ресурс, которого они не искали.
  • «Adult». Накладывает ограничения на ресурсы со "взрослым" контентом.
  • «Поведенческие факторы ». Фильтр отслеживает поведение пользователей, которые переходят по ссылке на сайт. Строго фиксируется количество отказов, «глубина» и длительность просмотра контента, которые считаются основными показателями полезности.
  • «Агрессивная реклама ». В последние несколько лет «Яндекс» начал вести активную борьбу с навязчивой и агрессивной рекламой, которая мешает просмотру контента.

Основные фильтры Google

После "Яндекса" в России поисковая система "Гугл" занимает второе место. Соответственно, и ее фильтры не оставляют без внимания веб-мастера. Самыми распространенными считаются:

  • «Дублированный контент ». Создан специально для наложения санкций на дублирующийся контент. Фильтр понижает позиции тех ресурсов, что размещают на своих страницах неуникальный контент, который не единожды повторяется.
  • «Sandbox ». Этот фильтр регулирует попадание сайта в топ по высокочастотным запросам, борется со спамом и сомнительным контентом.
  • «Рост ссылок ». Если у ресурса начинает быстро возрастать ссылочная масса, он понижается в выдаче.
  • «Google Bombing ». Этот фильтр накладывает санкции на ресурс, в котором переизбыток ключевых запросов в анкорах ссылок.
  • « -30 ». Такое прохладное, можно даже сказать, сибирское название, получил фильтр, который борется с многочисленным спамом. К рамкам его компетенции, помимо стандартных нежелательных рассылок, входит блокировка редиректов и дорвеев.
  • «Социтирование ». Для поисковой системы России "Гугла" важно, чтобы на ресурс ссылались сайты, близкие по тематике. Если же сайт повышает свои позиции, но на него ссылаются ресурсы, далекие от основной тематики, то начинает действовать этот фильтр.
  • «Скорость загрузки ». В отличие от "Яндекса", Google контролирует скорость загрузки. Если после перехода с поисковой системы на ресурс он медленно загружается, и это повторяется неоднократно, то сайт теряет свои позиции.
  • «Supplemental Results ». На некоторые страницы сайта, которые не несут уникальной информации или на них нет внутренних ссылок, поисковая система может наложить фильтр. При этом ресурс с основным контентом не теряет своих позиций.
  • «Обмен ссылками ». Как только началась эпопея по созданию сайтов, популярными были ресурсы по взаимному обмену ссылками. Теперь, если проект вдруг начинает активно набирать ссылочную массу, фильтр понижает его позиции.
  • «Trast Rank ». Или, проще говоря, «уровень доверия». Основная цель фильтра - определить, насколько авторитетным является проект. Соответственно, чем он авторитетнее, тем выше его позиции. На это влияют несколько факторов: качество ссылок и их общая масса, количество контента, возраст доменного имени и перелинковка между страницами ресурса.
  • «Результат+ ». Или фильтр на дополнительные результаты. Если система вдруг посчитает, что проект похож на сотни других и не несет ничего нового, то страницы сайта попадают в дополнительный индекс, а не в основной.

АГС

Выше представлены самые актуальные фильтры поисковых систем. Однако некоторые из них необходимо рассмотреть более подробно. Для начала стоит обратить внимание на самого страшного «диктатора» Рунета - АГС "Яндекса". Этот фильтр был создан специально, чтобы противостоять некачественному контенту в Сети. Это название может использоваться вмести с цифрами «17», «30» или «40», которые говорят о версиях программы.

Под санкции этого фильтра подпадают площадки, у которых имеются исходящие СЕО-ссылки. Отрицательно сказывается на позициях сайта неинтересный и неуникальный контент, из-за которого следует большое количество отказов пользователей. Дубли, дорвеи, редиректы, клоакинг. Помимо этого фильтр внимательно следит за функциональностью проектов. Если у веб-сайта некачественный дизайн или проблемы с загрузкой, то это тоже может значительно понизить его позиции.

Чтобы определить, попал проект под или нет, стоит внимательно отследить процесс индексации и уровень посещаемости. Когда фильтр начинает свое черное дело, то новые страницы не индексируются поисковой системой, а старые, которые попали под санкции, полностью выпадают из индекса.

Чтобы восстановить прежние позиции, необходимо сделать из ресурса настоящий шедевр, предназначенный для удовлетворения потребностей пользователей. Для этого необходимо подогнать технические характеристики к требованиям поисковой системы. Это значит запретить удалить СЕО-ссылки, сделать удобную навигацию, пересмотреть рекламные объявления, удалив все агрессивные медиа. Пользователи должны быстро находить информацию, которая может их заинтересовать, и эта информация должна быть качественной, новой, полезной и легкой для восприятия. Контент сайта должен постоянно пополняться новыми статьями. Только когда проект будет соответствовать требованиям поисковых систем, можно обращаться в службу поддержки "Яндекса", чтобы сняли фильтры.

«Пингвин»

Но страшны не только санкции "Яндекса", фильтрам поисковой системы Google тоже нужно уделить внимание. Если АГС следит за основными характеристиками, которые определяют качество проекта, то «Пингвин» штрафует за искусственное наращивание поведенческих факторов. Фильтр «Пингвин» был создан специально, чтобы исключить манипулятивный линкбилдинг при оптимизации веб-сайта.

Размещение спамных ссылок на форумах и блогах, приобретение обратных ссылок, переизбыток СЕО-анкоров, создание на страницах проекта невидимых ссылок - все это является причиной наложения санкций. Подпадая под фильтр «Пингвин», сайт начинает резко терять свои позиции, падает его посещаемость, а индексация происходит намного медленней, чем обычно.

Чтобы избежать печальной участи, нужно удалить все некачественные ссылки и поменять стратегию продвижения.

Очень часто площадка подвергается санкциям не одного фильтра. Вместе с «Пингвином» в гости к веб-мастеру может зайти и «Панда». Это еще один фильтр поисковой системы Google. Если на сайте публикуется материал с уникальностью ниже 90% то можно быть уверенным, что ресурс находится под двумя этими «укротителями».

«Панда»

Фильтр «Панда» отвечает за качество веб-сайта в целом. Некачественные проекты лишаются значительной доли трафика, а в некоторых случаях полностью выпадают из поиска. Качество площадок оценивается по таким характеристикам:

  • Контент. Качество содержимого определяют не только роботы, которые сканируют его на уникальность и полезность, но и асессоры - аттестаторы, выставляющие контенту независимые оценки. Помимо этого, влияет удовлетворенность пользователя информацией. Об этом говорят глубина просмотра и время, проведенное на сайте. Нельзя, чтобы информация дублировалась или была откровенно ворованной (то есть с низкой уникальностью).
  • Владельцы и пользователи. Все, что есть на сайте, и сам проект обязаны в первую очередь ориентироваться на пользователя. То есть должен быть хороший дизайн, удобный и понятный интерфейс, минимум некорректной и навязчивой рекламы. Сайт может получить пенальти, если рекламные блоки размещены вверху страницы, а само содержимое - внизу. Карается также и нечитабельность текстов.

Как и в других случаях, если сайт начинает резко терять свои позиции и трафик, а страницы выпадают из индекса, высока вероятность того, что проект попал под фильтр «Панда». Чтобы избавиться от ограничений поисковых роботов, нужно изменить стратегию оптимизации, повысить качество материалов и функциональность веб-сайта. В таком вопросе помогут следующие манипуляции:

  • Технический аудит . Необходимо убедиться, что веб-сайт нормально функционирует, хорошо грузится, отсутствуют битые ссылки.
  • Качество . Еще раз проверить материалы ресурса на предмет уникальности и качества. Все материалы, что вызывают вопросы, заменить.
  • Чистота, залог успеха . Если присутствуют страницы без контента или с маленькими абзацами текстов, их нужно убрать, дополнить или заменить. То есть необходимо провести чистку, избавившись от ненужных фрагментов деятельности веб-мастера.
  • Регулярность . Сайт должен постоянно обновляться. Хотя бы раз в неделю нужно добавлять новые публикации.

"Баден-Баден"

В 2017 году вышло обновление фильтра поисковой системы Яндекс «Баден-Баден», что вызвало небывалый ажиотаж среди веб-мастеров. Кто-то утверждал, что этот поисковый алгоритм станет применять жесткие санкции к ресурсам, на которых будет замечен хотя бы намек на спам, а кто-то спокойно твердил, что он не станет революционным толчком в СЕО-оптимизации.

Сами разработчики уверяют, что значительно улучшили алгоритм, который «наказывал» переоптимизированные страницы. Хотя все еще непонятно, стал новый "Баден-Баден" заменой привычным фильтрам или же является частью общего алгоритма. Если склоняться ко второму варианту, то веб-мастерам будет достаточно трудно определить, под какие санкции попал их ресурс.

"Баден-Баден" борется с некачественным контентом путем исключения из поиска текстов, где много ключевых запросов. Однако его действие распространяется не на весь проект, а на отдельный документ (страницу). Проще говоря, если на сайте есть один некачественный текст, то только страница, на котором он размещен, выпадет из поиска, в остальном ресурс сохранит свои позиции и основную часть трафика. Однако не стоит расслабляться. За одним фильтром может последовать множество других.

Поэтому необходимо увеличить видимость ресурса, пересмотреть все СЕО-тексты на предмет переоптимизации и удалить техники, которые скрывают СЕО-наполнение от поисковиков.

На пульсе

Требования поисковых систем одинаковы для всех площадок, одинаковым является и наказание за их невыполнение. Если проект вдруг начал терять трафик и понизился в выдаче, значит, он определенно попал под санкции поисковиков. Чтобы держать руку на пульсе, необходимо постоянно проверять поступаемый трафик, причем не только количество, но и его источники.

Поэтому каждому вебмастеру необходимо научиться управлять поисковыми фильтрами. Как включить поисковый фильтр? Это достаточно простое задание. При регистрации сайта в поисковой системе веб-мастер получает личный кабинет, в котором может следить за изменениями, которые происходят с его проектом ("Яндекс. Вебмастер" или Google Analytics). Перейдя на эту страницу, нужно открыть административную панель, выбрать интересующую вас площадку и открыть раздел «Фильтры». В большинстве случаев достаточно активировать встроенные ограничители, но для некоторых случаев необходимо создавать индивидуальные пользовательские ограничения.

Зачем это нужно? Допустим, если сайт принадлежит большой компании, то высока вероятность того, что на него ежедневно будут заходить сотрудники. А если на этой площадке есть чат или форум, на котором они могут общаться между собой, то логично предположить, что работники будут с удовольствием коротать время на веб-ресурсе фирмы. Однако они не являются целевой аудиторией. Но поисковая система фиксирует все посещения. Чтобы логично продумать стратегию оптимизации, необходимо исключить из отчетов поисковиков информацию о переходе по локальной сети фирмы пользователей. Для этой цели и существуют настраиваемые фильтры.

Проще говоря, настраиваемые веб-мастером фильтры дают возможность получить исключительно ту информацию, что будет необходима для продвижения ресурса. Это касается не только определенных IP-адресов, но переходов с конкретных каталогов, сайтов и поведенческих характеристик.

Что получается в остатке?

Фильтры поисковых систем улучшаются с каждым годом. И точно так же с каждым годом веб-мастера улучшают оптимизацию своих сайтов. При этом не все и не всегда идут длинным и безопасным путем, а нередко пытаются сократить тропу к вершине авантюрными и наказуемыми методами.

По сути, фильтры поисковиков не такие уж и страшные, они требуют вполне обыденных вещей:

  • Качественного контента.
  • Ненавязчивой рекламы.
  • Отсутствия запрещенных материалов.
  • Понятного интерфейса и грамотного продвижения, которое заключается в естественном наращивании ссылочной массы и

Естественно, такой путь долгий, потребуется около полугода, чтобы вывести веб-сайт в топ по основным ключевым запросам, но если он туда уже попал, то его позиция будет намного стабильней, чем у тех, которые заняли это место нечестным способом.

Это только в начале развития интернет-эпопеи можно было безнаказанно разбавлять скудные фрагменты текстов ключевыми запросами и быстро продвигаться в поисковой выдаче. Сейчас все изменилось. Поисковые системы акцентируют внимание на качественном наполнении ресурсов. В приоритете теперь оригинальный, авторский контент, который может дать исчерпывающий ответ на вопрос пользователя. Поэтому если нет желания становиться жертвой санкций, нужно сосредоточить основное внимание на решении именно этого вопроса, и лишь после приниматься за наращивание ссылочной массы и привлечение посетителей.

Статьи по теме: