Большинство поисковых систем искренне желают дать своим посетителям все самое лучшее на своих страницах.
Другая сторона этой же медали - поисковые системы требуют создания качественных сайтов и контента от их разработчиков и seo специалистов, в противном случае применяя свои штрафные санкции против тех, кто это (с точки зрения поисковых систем) злостно игнорирует.
Если не брать в расчет возраст сайта, то основная рекомендация для всех, кто не хочет попасть под штрафные санкции поисковых систем одна и глобальная - работайте над сайтом, не останавливаясь. Обновляйте сайт регулярно, создавайте уникальный и нужный контент для людей, а не для поисковиков, продвигая и оптимизируя сайт, держите себя в руках и не увлекайтесь излишней переоптимизацией, "дружите" только с проверенными и авторитетными интернет-ресурсами, не гонитесь за ссылочной массой, а наращивайте ее постепенно и только качественную и не забывайте про юзабилити сайта.
А теперь MiolaWeb пройдется по основным фильтрам (а точнее будет сказать - по санкциям) основных поисковых системы - Яндекса и Googla, и пусть приведенная ниже информация будет для вас пищей для размышления на тему - "что такое хорошо, а что такое плохо".
И даже при условии, что указанные фильтры несколько со временем взаимозаменяются, основные требования от поисковых систем к сайтам остаются те же самые, с течением времени лишь все более ужесточаясь в борьбе за порядок в SERP.
Фильтр — это программный механизм поисковых систем, проверяющий соответствие данных на сайте каком-либо определенным условиям.
Фильтры Яндекса
Фильтр АГС (его модификации известны как АГС-17 и АГС-30)
Сколько бы страниц у вашего сайта не было в поиске ранее, при наложении этого фильтра в выдаче Яндекса остается не более двадцати, а то и всего лишь одна страница. Причина фильтра: на сайте контент низкого уровня - машинный перевод, копирайт или рерайт ужасного качества, много дублей страниц. Таким образом Яндекс борется с сайтами, созданными исключительно для поискового спама (сателлитами) и манипулирования ПС. Как бороться с АГС - придется поработать над сайтом, написать уникальные тексты, убрать лишние ссылки, с помощью тега rel="canonical" указать поисковой системе канонические страницы. Иначе говоря - необходимо сделать сайт для людей. Ну а после этого можно писать письмо Платонам Щукиным.
Непот-фильтр
Если вы - большой любитель продажи ссылок и ссылочного спама с вашего сайта, то вполне можете ожидать данный фильтр в применении к вам. Фильтр может быть наложен как на отдельные ссылки, так и на целые страницы или даже на весь сайт. Уж если совсем не можете отказаться от продажи ссылок, то делайте это крайне осторожно, по чуть-чуть и боритесь за максимальную естественность ссылок.
Редирект-фильтр
Используете javascript редиректы ( дорвеи)? Если не хотите попасть под редирект-фильтр, то используйте хотя бы flash и ajax, в противном случае - бан от Яндекса вам почти гарантирован.
Фильтр «Поведенческий фильтр»
Штрафные санкции, которые ПС накладывает на сайт за его попытку каким-либо образом повлиять на рейтинг в поисковой выдаче через манипуляцию действиями пользователей.
При ранжировании Яндекс учитывает множество поведенческих факторов, таких как время пребывания на сайте, показатель отказов (сколько пользователей перешли на сайт и сразу же ушли), количество просмотренных пользователями страниц, возвращение пользователей к поисковику и многие другие. Некоторые оптимизаторы так стремятся повысить эти самые поведенческие факторы, что в погоне за этим нанимают людей или просто используют роботов для накрутки указанных факторов, за что и попадают под санкции.
Если сайт создан качественно, то пользователи в среднем смотрят от 3 и более страниц, они проводят на сайте больше одной минуты и т.д., а поисковая система оценивает его как полезный и значительно поднимает в поисковой выдаче.
Аффелиат-фильтр
Сайты-аффилиаты — это некая группа web-ресурсов, часто одного владельца и чаще всего одной тематики, направленные на процесс монополизации первых страниц результатов поиска. ПС определяет, что схожи контактные данные сайтов, список ключевых фраз, прайс-листы, дублированная информация, схожая структура сайтов и т.п. . Для таких групп сайтов ПС сильно занижает позиции, за исключением одного, наиболее релевантного.
Фильтр Пессимизация
К сайту применяется данный фильтр в случае , если он обменивается ссылками с иными сайтами не идентичной для него самого тематики.
Если поисковая система определяет некую страницу сайта как дубль уже существующей страницы, к тому же давно не обновляемую, то она может наложить этот фильтр. Как избежать - создавайте свой уникальный контент на сайте, регулярно его обновляйте и боритесь за копипастом с вашего ресурса без указания вашего авторства. Обнаружить фильтр можно, если ввести в строку поиска точную фразу со страницы сайта и проведя анализ позиций ресурса по ней в выдаче ПС. Если сайта нет в SERP, а при режиме «Показать все без исключения» он отображается на самой-самой последней странице, то вы, к сожалению, однозначно встретились с фильтром «Ты последний».
Фильтры Google
Фильтр Панда, Google Panda
Направлен поисковой системой в первую очередь на отсеивание некачественного контента. Не уникальный контента, малый объем статей, ошибки в орфографии, плохое юзабилити, переоптимизация - всё то, что отражается на качестве получения пользователями информации.
В случае с фильтром Панда одна плохая страница может тянуть вниз весь сайт.
Фильтр Пингвин, Google Penguin
После введения фильтра Пингвин выдача Google сильно преобразилась. Были заметно понижены в результатах поиска (или же вообще исключены из него) сайты, злоупотребляющие поисковым спамом, агрессией продвигаемых фраз в анкорах, использующие методы "чёрного" SEO, или же которые продвигались исключительно за счёт покупных ссылок сомнительного качества (например, через биржи авто размещения).
Фильтр "Песочница", Google Sandbox
Если у вас совсем молодой сайт, которому не более полугода, то вы вполне вероятно можете попасть под данный фильтр Google. Его суть сводится к тому, что ваш сайт при всех ваших стараниях не будет хорошо ранжироваться по высокочастотным запросам. Так что сосредоточтесь пока что на низкочастотных и просто работайте над сайтом и контентом, наращивая количество качественных внешних ссылок. Время нахождения сайта под фильтром может колебаться от нескольких месяцев до нескольких лет. 🙁
Фильтр "Возраст домена", Google Domain name Age Filter
Очень схож с фильтром "Песочница". Применим в основном для молодых доменов, которые не пользуются пока авторитетом у ПС. Единственный способ избежать попадания под этот фильтр вашего сайта – постоянно повышать авторитет вашего сайта и наращивать число входящих ссылок с трастовых сайтов.
Фильтр "Дополнительные результаты", Google Supplemental Results
Бывает так, что Google может посчитать ваши страницы "недостаточно хорошими" для поисковой выдачи и поместить их ниже всех при выдаче всех с его точки зрения "хороших" результатов. Практически каждый сайт имеет страницы в «дополнительных результатах». Туда чаще всего попадают дубли страниц, некачественные статьи. Главное, чтобы страниц, отмеченных этим фильтром, было не так много, а уж очень нехорошо, если туда попадают важные страницы сайта. Для борьбы с Supplemental Results удалим из поиска дубли страниц, проверим уникальность описание страниц, проверим на релевантность тег title и тему статьи. Также бороться можно с этим, привлекая опять-таки качественные внешние ссылки на свои страницы.
Фильтр Бомбежка, Bombing
Под него обычно попадают сайты с большим количеством внешних ссылок и с одинаковыми анкорами. Вес ссылок при этом полностью теряется. Вам не грозит данный фильтр, если вы будете правильно подходить к количеству и качеству внешних ссылок, не допуская большого количества их в принципе, ссылок на самого себя и будете правильно и грамотно проставлять анкоры ссылок, стараясь делать их разноообразными. Это в огромной степени касается сайтов, которые покупают-продают ссылки.
Фильтр "Дублирующийся контент", Duplicate Content Filter
В последнее время борьба за уникальный контент приняла у ПС серьезные масштабы. Вот и Google может заметно понизить сайт в поисковой выдаче, если посчитает, что ваш контент не уникален и дублирует уже существующий в сети.
Фильтр -30, Google – 30
Этот фильтр Google применяет к тем сайтам, которые для продвижения используют некорректные методы SEO - дорвеи, редиректы с помощью JavaScript. Если подобные манипуляции будут обнаружены поисковыми системами на Вашем сайте, то выдача по запросам может понизиться аж сразу на 30 позиций. Убираем с сайта черные и серые методы SEO и выходим из под фильтра.
Фильтр "Опущенные результаты", Google’s Omitted Results Filter
Под этот фильтр попадают сайты, у которых есть дублирующий контент, плохая внутренняя перелинковка, малое количество входящих ссылок, повторяющиеся заголовки страниц или другие meta-тэги. Создавайте свои уникальные meta-тэги - это очень важно для всех без исключения поисковых систем.
Фильтр "Социтирование", Co-Citation Filter
Все входящие ссылки на ваш сайт Google тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь сайт весьма сомнительного содержания или же слишком с далекой тематикой от Вашего, то Google вполне может подумать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может сильно подпортить "тематичность" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не происходило - обязательно проверяйте те сайты, на которых вы размещаете или покупаете ссылки.
Фильтр "Много ссылок сразу", Too Many Links at Once
Сайт имеет все шансы попасть под данный фильтр, если на него слишком уж стремительно растет количество внешних ссылок. Чтобы этого не произошло, необходимо крайне аккуратно наращивать ссылочную массу и покупать ссылки малыми порциями, добавляя их по мере индексирования.
Фильтр "Чрезмерная оптимизация", Over Optimization Filter
Под фильтр чрезмерной оптимизации чаще всего попадают сайты с переоптимизацией - большим количеством ключевых фраз, их чрезмерной плотностью, перенасыщением meta-тэгов. Все хорошо в меру.
Фильтр "Битые ссылки", Brocken Links
Когда ссылка ведет на отсутствующую страницу с выдачей результата 404 ошибки, то поисковой робот не может на нее перейти, провести ее индексацию. Это может негативно отразиться на результатах поиска, а также на общих качественных показателях сайта. Необходимо проверять ссылки на качество.
Фильтрация страниц по времени загрузки, Page Load Time Filter
Если Ваша страница имеет слишком большое время загрузки ( чрезмерно перегружена различными эффектами либо существуют проблемы с хостингом), то поисковая система просто может отказаться её загружать и индексировать, в результате чего страница не появится в результатах поиска.
Фильтр Линкопомойка, Links
Если на вашем сайте существуют страницы с глобальным количеством ссылок (более 25), то они имеют все шансы попасть под этот фильтр, а все ссылки полностью потеряют весь свой вес, значительно ухудшив общее положение сайта.