Создание сайтов и интернет магазинов. Аудит и seo оптимизация.
Звоните нам: +7 (925) 282-49-10

Инструментарий, Оптимизация, SEO, Разбор полетов

Фильтры поисковых систем. За что и как избежать?

Большинство поисковых систем искренне желают дать своим посетителям все самое лучшее на своих страницах.

Другая сторона этой же медали - поисковые системы требуют создания качественных сайтов и контента  от их разработчиков и seo специалистов, в противном случае применяя свои штрафные санкции против  тех, кто это (с  точки зрения поисковых систем) злостно игнорирует.

Если не брать в расчет возраст сайта, то основная рекомендация для всех, кто не хочет попасть под штрафные санкции поисковых систем одна и глобальная - работайте над сайтом, не останавливаясь. Обновляйте сайт регулярно, создавайте уникальный и нужный контент для людей, а не для поисковиков, продвигая и оптимизируя сайт, держите себя в руках и не увлекайтесь излишней переоптимизацией, "дружите" только с проверенными и авторитетными интернет-ресурсами, не гонитесь за ссылочной массой, а наращивайте ее постепенно и только качественную и не забывайте про юзабилити сайта.

А теперь MiolaWeb  пройдется  по  основным фильтрам (а точнее будет сказать - по санкциям) основных поисковых системы - Яндекса и Googla,  и пусть приведенная ниже информация будет для вас пищей для размышления на тему - "что такое хорошо, а что такое плохо".

И даже при условии, что указанные фильтры несколько со временем взаимозаменяются, основные требования от поисковых систем к сайтам остаются те же самые, с течением времени лишь все более ужесточаясь в борьбе за порядок в SERP.

Фильтр — это программный механизм поисковых систем, проверяющий соответствие данных на сайте каком-либо определенным условиям.

Фильтры Яндекса

Фильтр АГС (его модификации известны как АГС-17 и АГС-30)

Сколько бы страниц у вашего сайта не было в поиске ранее, при наложении этого фильтра в выдаче Яндекса остается не более двадцати, а то и всего лишь одна страница. Причина фильтра: на сайте контент низкого уровня - машинный перевод, копирайт или рерайт ужасного качества, много дублей страниц.  Таким образом Яндекс борется с сайтами, созданными исключительно для поискового спама (сателлитами) и манипулирования ПС. Как бороться с АГС - придется поработать над сайтом, написать уникальные тексты, убрать лишние ссылки,  с помощью тега rel="canonical" указать поисковой системе канонические страницы. Иначе говоря -  необходимо сделать сайт для людей. Ну а после этого можно писать письмо  Платонам Щукиным.

Непот-фильтр

Если вы - большой любитель продажи ссылок и ссылочного спама с вашего сайта, то вполне можете ожидать данный фильтр в применении к вам. Фильтр может быть наложен как на отдельные ссылки, так и на целые страницы или даже на весь сайт.  Уж если совсем не можете отказаться от продажи ссылок, то делайте это крайне осторожно, по чуть-чуть и боритесь за максимальную естественность ссылок.

Редирект-фильтр

Используете javascript редиректы ( дорвеи)? Если не хотите попасть под редирект-фильтр, то используйте хотя бы flash и ajax, в противном случае - бан от Яндекса вам почти гарантирован.

Фильтр «Поведенческий фильтр»

Штрафные санкции, которые ПС накладывает на сайт за его попытку каким-либо образом повлиять на рейтинг в поисковой выдаче через  манипуляцию действиями пользователей.

При ранжировании Яндекс учитывает множество поведенческих факторов, таких как время пребывания на сайте, показатель отказов (сколько пользователей перешли на сайт и сразу же ушли),  количество просмотренных пользователями страниц, возвращение пользователей  к поисковику и многие другие. Некоторые оптимизаторы так стремятся повысить эти самые поведенческие факторы, что в погоне за этим нанимают людей или просто используют роботов для накрутки указанных факторов, за что и попадают под санкции.

Если сайт создан качественно, то пользователи  в среднем смотрят  от 3 и более страниц, они проводят на сайте больше одной минуты и т.д., а поисковая система  оценивает его как полезный и значительно поднимает в поисковой выдаче.

 Аффелиат-фильтр

Сайты-аффилиаты — это некая группа web-ресурсов, часто  одного владельца и чаще всего  одной тематики, направленные на процесс монополизации первых страниц результатов поиска. ПС определяет, что схожи контактные данные сайтов, список ключевых фраз, прайс-листы, дублированная информация, схожая структура сайтов и т.п. . Для таких групп сайтов ПС  сильно занижает позиции, за исключением одного, наиболее релевантного.

Фильтр Пессимизация

К сайту  применяется данный фильтр в случае , если он обменивается ссылками с иными сайтами не идентичной для него самого тематики.

Фильтр «Ты последний»

Если поисковая система определяет некую страницу сайта как дубль уже существующей страницы, к тому же    давно не обновляемую, то она может наложить этот фильтр.  Как избежать - создавайте свой уникальный контент на сайте, регулярно его обновляйте и боритесь за копипастом с вашего ресурса  без указания вашего авторства. Обнаружить фильтр можно, если ввести в строку поиска точную фразу со страницы сайта и проведя анализ  позиций ресурса по ней в выдаче ПС. Если сайта нет в SERP, а при режиме «Показать все без исключения» он отображается  на самой-самой последней странице, то вы, к сожалению, однозначно встретились с фильтром «Ты последний».

Фильтры Google

Фильтр Панда, Google Panda

Направлен поисковой системой в первую очередь на отсеивание некачественного контента. Не уникальный контента, малый объем статей,  ошибки в орфографии, плохое юзабилити, переоптимизация - всё то, что отражается на качестве получения пользователями информации. В случае с фильтром Панда  одна плохая страница может тянуть вниз весь сайт.

Фильтр Пингвин, Google Penguin

После введения фильтра Пингвин выдача Google сильно  преобразилась. Были заметно понижены в результатах поиска  (или же вообще исключены из него) сайты, злоупотребляющие поисковым спамом, агрессией продвигаемых фраз в анкорах, использующие методы "чёрного" SEO, или же которые продвигались исключительно за счёт покупных ссылок сомнительного качества (например,  через биржи авто размещения).

Фильтр "Песочница", Google Sandbox

Если у вас совсем молодой сайт, которому не более полугода, то вы вполне вероятно можете попасть под данный фильтр Google. Его суть сводится к тому, что ваш сайт при всех ваших стараниях не будет хорошо ранжироваться по высокочастотным запросам. Так что сосредоточтесь пока что на низкочастотных и просто работайте над сайтом и контентом, наращивая количество качественных внешних ссылок.  Время нахождения сайта под фильтром может колебаться от нескольких месяцев до нескольких лет.  🙁

Фильтр "Возраст домена", Google Domain name Age Filter

Очень схож с фильтром "Песочница". Применим в основном для молодых доменов, которые не пользуются пока авторитетом у ПС.  Единственный способ избежать попадания под этот фильтр вашего сайта – постоянно повышать авторитет вашего сайта и наращивать число  входящих ссылок с трастовых сайтов.

Фильтр "Дополнительные результаты", Google Supplemental Results

Бывает так, что Google может посчитать ваши страницы "недостаточно хорошими" для поисковой выдачи и поместить их ниже всех при выдаче всех с его точки зрения "хороших" результатов.  Практически каждый сайт имеет страницы в «дополнительных результатах». Туда чаще всего попадают дубли страниц, некачественные  статьи. Главное, чтобы страниц, отмеченных этим фильтром, было не так много, а уж очень нехорошо,  если туда попадают важные  страницы сайта. Для борьбы с Supplemental Results удалим из поиска  дубли страниц, проверим уникальность описание страниц, проверим на релевантность тег title и тему статьи. Также бороться можно с этим, привлекая опять-таки качественные внешние ссылки на свои страницы.

Фильтр Бомбежка, Bombing

Под него обычно попадают  сайты  с большим количеством внешних ссылок и с одинаковыми анкорами. Вес ссылок при этом полностью теряется. Вам не грозит данный фильтр, если вы будете правильно подходить к количеству и качеству внешних ссылок, не допуская большого количества их в принципе, ссылок на самого себя и будете правильно и грамотно проставлять анкоры ссылок, стараясь делать их разноообразными.   Это в огромной степени касается сайтов, которые покупают-продают ссылки.

Фильтр "Дублирующийся контент", Duplicate Content Filter

В последнее время борьба за уникальный контент приняла у ПС серьезные масштабы.  Вот и Google может заметно понизить сайт в поисковой выдаче, если посчитает, что ваш контент не уникален и дублирует уже существующий в сети.

Фильтр -30, Google – 30

Этот фильтр Google  применяет к тем сайтам, которые для продвижения используют некорректные методы SEO - дорвеи, редиректы с помощью JavaScript. Если подобные манипуляции будут  обнаружены поисковыми системами на Вашем сайте, то выдача по запросам может понизиться аж сразу  на 30 позиций. Убираем с сайта черные и серые методы SEO и выходим из под фильтра.

Фильтр "Опущенные результаты", Google’s Omitted Results Filter

Под этот фильтр попадают сайты, у которых есть дублирующий контент, плохая  внутренняя перелинковка,  малое количество входящих ссылок, повторяющиеся заголовки страниц или другие meta-тэги. Создавайте свои уникальные meta-тэги - это очень важно для всех без исключения поисковых систем.

Фильтр "Социтирование", Co-Citation Filter

Все входящие ссылки на ваш сайт Google  тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь  сайт весьма сомнительного содержания или же слишком с  далекой тематикой от Вашего, то Google вполне может подумать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может сильно подпортить "тематичность" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не происходило  -  обязательно проверяйте те сайты, на которых вы размещаете или покупаете ссылки.

Фильтр "Много ссылок сразу", Too Many Links at Once

Сайт имеет все шансы попасть под данный  фильтр, если  на него слишком уж стремительно  растет количество внешних ссылок. Чтобы этого не произошло, необходимо крайне  аккуратно наращивать ссылочную массу  и покупать ссылки малыми  порциями, добавляя их по мере индексирования.

Фильтр "Чрезмерная оптимизация", Over Optimization Filter

Под фильтр чрезмерной оптимизации чаще всего попадают сайты с переоптимизацией - большим количеством ключевых фраз, их чрезмерной  плотностью, перенасыщением meta-тэгов.  Все хорошо в меру.

Фильтр "Битые ссылки", Brocken Links

Когда ссылка ведет на отсутствующую страницу  с выдачей результата 404 ошибки, то поисковой робот не может на нее перейти, провести ее индексацию. Это может негативно отразиться на результатах поиска, а также на общих качественных показателях  сайта. Необходимо проверять ссылки на качество.

Фильтрация страниц по времени загрузки, Page Load Time Filter

Если Ваша страница имеет слишком большое время загрузки ( чрезмерно перегружена различными эффектами либо существуют проблемы с хостингом), то поисковая система просто может отказаться её загружать и индексировать, в результате чего страница  не появится в результатах поиска.

Фильтр Линкопомойка, Links

Если на вашем сайте существуют страницы с глобальным количеством ссылок (более 25), то они имеют все шансы попасть под этот фильтр, а все ссылки  полностью потеряют весь свой вес, значительно ухудшив общее положение сайта.

Студия интернет - решений MiolaWeb.ru | Создание, аудит, seo оптимизация и продвижение сайтов, магазинов

Темы Блога

О Проекте

Все можно сделать лучше, чем делалось до сих пор. /Генри Форд/

Проект MiolaWeb - это ответы на вопросы: с чего и как стоит начать создание сайтов или интернет - магазинов, избежав при этом ошибок? Что такое seo поисковая оптимизация для сайта? Где, как и зачем делать качественный аудит сайта и организовать грамотное продвижение сайта? Какие существуют методы привлечения и удержания Клиентов? Наши услуги, авторские разработки, работающие маркетинговые инструменты и рекомендации, полезные обзоры, профильные статьи о seo, web, smm, e-shops. Присоединяйтесь к нам!

MiolaWeb.ru | Создание, аудит, seo оптимизация и продвижение сайтов, магазинов