Фильтры Гугла

Размер шрифта

Печать

Поисковые системы постоянно совершенствуют методы ранжирования. Некачественные сайты они опускают ниже в выдаче, хорошие ресурсы, наоборот, поднимают. Это автоматизированный процесс, который регулируется множеством алгоритмов. Похожие способы отсеивания низкопробных проектов объединяют в крупные блоки, так называемые фильтры.

Поисковый фильтр – это сложный алгоритм, направленный на отбор качественных сайтов и исключение из поиска тех проектов, которые не будут отвечать поисковому запросу. Попасть под фильтр Google для каждого оптимизатора – страшный сон, особенно если это касается исключения из поиска. У мирового поискового гиганта есть несколько фильтров.

Наиболее известные фильтры Гугла:

  • «Песочница», в нее попадают молодые сайты;
  • Supplementary Results – деление выдачи на основную и вспомогательную;
  • «Панда»;
  • «Пингвин»;
  • «Минус 30»;
  • «Черепаха»;
  • «Битые ссылки».

Разумеется, это не окончательный список. У Гугла имеется как множество факторов ранжирования, так и множество фильтров.

Фильтр Гугла «Песочница»

Под этот фильтр попадают все новые сайты, которым еще предстоит доказать, что проекты жизнеспособны и созданы для людей. Если интернет-ресурс находится под этим фильтром, то это означает низкий уровень доверия поисковика к сайту. Чтобы улучшить показатели траста, нужно продолжать заниматься проектом, наполнять его качественным контентом и всячески развивать. Новые площадки могут находиться под фильтром примерно полгода после создания. Иногда больше, иногда меньше.

Фильтр Supplementary Results

У поисковика есть основная и вспомогательная выдача. Страницы, которые Гугл посчитал качественными, попадают в основную. Остальные же отправляются во вспомогательную. Причины, по которым можно угодить под Supplementary Results:

  • Контент низкого качества;
  • Использование копипаста на сайте;
  • Размещение переоптимизированных текстов;
  • Отсутствие текстового наполнения;
  • Неоптимизированная структура статей.

Чтобы выйти из-под фильтра Гугл, необходимо улучшать качество материалов, размещенных на сайте. Требуется убрать весь копипаст, опубликовать полезную для пользователей информацию, статьи дописать до минимального значения (от 500 символов).

Фильтр Гугла Panda

Фильтр «Панда» появился у Гугла в 2011 году. Он отсеивает площадки с некачественным контентом, копипастом, переоптимизированными текстами, нетематической информацией. Вывод сайт из-под фильтра Гугла – длительный процесс. Нужно детально прорабатывать статьи и сайт в целом.

За какие злодеяния можно угодить под «Панду»?

  • Использование копипаста;
  • Наличие дублей заголовков и мета-тегов;
  • Шаблонное наполнение сайта;
  • Плохие поведенческие факторы, большое количество отказов;
  • Переоптимизация текстов, изобилие ключевых слов на странице.

Как определить, что сайт попал под фильтр Гугла? Сделать это очень просто по статистике позиций и посещаемости. Если поисковик стал выкидывать страницы из выдачи, по ним заходит всё меньше посетителей, вполне вероятно, что проект находится под фильтром. Улучшение контента и попытки исправить ситуацию возымеют свое действие, но не сразу, а со временем. Только комплексная работа с сайтом поможет вернуть трафик.

«Пингвин» – еще один фильтр поисковой системы Гугл

Фильтр Гугла «Пингвин» может применяться автоматически и вручную. Его задача – исключить из выдачи сайты, которые используют черные методы продвижения. Он появился в 2012 году, и многим вебмастерам создал немало головной боли. Санкции применяются к площадкам с некачественными ссылками, алгоритм опускает их в выдаче или вовсе исключает из поиска. Фильтр оценивает качество входящих и исходящих ссылок, естественность их прироста.

Как выходить из-под фильтра Гугл?

  • Нужно убрать с проекта некачественные ссылки;
  • Закрыть от индексации внешние ссылки (сама ссылка закрывается атрибутом rel="nofollow", текст ссылки для Яндекса – тегом <noindex>, в Google <noindex> не работает);
  • В сервисе для вебмастеров Гугл в разделе «Поисковый трафик» нужно посмотреть внешние домены, на которых находятся некачественные сайты со ссылками на ваш проект, и запретить учет этих ссылок на странице https://www.google.com/webmasters/tools/disavow-links-main (это сервис от Google, который позволяет контролировать влияние ссылок на сайт).

Вывод из-под фильтра Гугла «Пингвин» имеет понятный алгоритм. Главное – правильно определить, какая ссылка является качественной и благоприятно сказывается на продвижении, а какая – нет. Для этого необходимо основательно подойти к изучению всей ссылочной массы, причем как входящей, так и исходящей. Можно вычищать линки постепенно, начиная с откровенно некачественных, таким образом сокращая их число. Если ситуация с позициями и трафиком начинает выправляться, то выбран верный путь. Добавлять домены в сервис Гугл вебмастер стоит осторожно, т.к. можно исключить и хорошие качественные ссылки.

Однако стоит заметить, что с сентября 2016 года фильтр «Пингвин» вошел в основной алгоритм поисковой системы Google, и понять, что причиной падения позиций сайта произошло из-за санкций за некачественные ссылки, стало сложнее.

Фильтр «Минус 30»

Этот фильтр Гугла понижает позиции сайта в выдаче и накладывается за использование черных методов продвижения, копипаста, бесполезного контента и в других ситуациях. Он призван очистить выдачу от спама, избавиться от проектов со скрытыми редиректами, дорвеями. Под дорвеем понимается сайт с автоматический переадресацией на другой ресурс. Гугл борется с такими методами оптимизации и понижает проекты в выдаче за их использование. Сайты, которые находятся под санкциями, не могут быть выше 30 позиции.

Как не попасть под фильтры Гугла? Общие рекомендации

Обойти некоторые фильтры все же не получится, например, «Песочницу», однако можно снизить вероятность не попасть под остальные. В первую очередь, надо ответственно подходить к наполнению и развитию проекта, избегать копипаста, дублирования, наличия мусорных ссылок. Предстоит вплотную поработать со скоростью загрузки страниц (Гугл не любит медленные сайты), избавиться от битых ссылок. Обнаружить проблемы поможет комплексный аудит сайта.

Как проверить фильтр Гугла?

Если сайт начал терять позиции в выдаче зарубежного поисковика и в связи с этим упала посещаемость, нужно обязательно проверить, а не находится ли проект под фильтром. Если это так, то по виду фильтра можно понять, как дальше из-под него выходить. Хорошая новость: любой сайт можно вывести из-под фильтра. Но есть и плохая – в отдельных случаях на это может потребоваться много времени: от полугода и более.

Как узнать, что сайт под фильтром Гугла?

  • Воспользоваться онлайн-сервисами, позволяющими это определить.
  • Сделать логические выводы на основе имеющейся информации об изменениях в позициях и посещаемости.

Barracuda.digital – онлайн-сервис, который берет данные из Google Analytics и накладывает на них даты обновления фильтров. Если есть закономерность между снижением трафика и фильтром, значит, дело в фильтре. Однако нужно уметь анализировать, не всегда причина спада в этом, может быть дело в сезонности и т.д.

Сервис seolib.ru обладает аналогичными возможностями. Он позволяет продиагностировать посещаемость и наложить на график информацию об изменении алгоритмов поисковиков. Таким образом, про фильтры Гугла узнать можно быстро, но ни один онлайн-сервис не даст информации, действительно ли причина просадки состоит в предполагаемых санкциях.

ОСТАЛИСЬ ВОПРОСЫ?