Фильтр Гугл Пингвин, Панда и фильтры Яндекса (АГС, переоптимизация и др.)

Фильтр Гугл Пингвин, Панда и фильтры Яндекса - АГС и др.

Чтобы правильно продвигать свои сайты, оптимизатор должен знать принципы ранжирования и фильтры поисковых систем, которые могут быть наложены на некачественные страницы.

Давайте рассмотрим основные фильтры Гугл - Пингвин и Панда, а также Яндекса - АГС, переоптимизация и др.

Google Пингвин

Впервые имя этого фильтра (Гугл Пингвин) прозвучало в апреле 2012 года, а в начале мая пришел и первый апдейт, и, как итог: позиции большинства сайтов упали. Алгоритм выполняет те же задачи, что и другие алгоритмы и фильтры. Задача же проста - очистка поисковой системы от некачественных ресурсов.

Гугл Пингвин

Получить наказание от Google Penguin можно за следующее:

  • Чрезмерная насыщенность ключами для внутренних и внешних ссылок;
  • Использование копированного материала (касается даже тех, у кого украли);
  • Спам в каталогах и блоках некачественными статьями;
  • Использование доменов, которые точно совпадают с продвигаемыми ключами;
  • Переоптимизация страниц на сайте (большое количество ключей при создании текста и мега-тегов).

В общем, новый алгоритм теперь глубже сканировать и намного лучше разбираться в качестве ресурса. Необходимо учесть и еще один момент - это реклама на ресурсе. Перенасыщенность рекламой главной страницы, ведет к потере позиции в выдаче, Пингвин в этом преуспел.

Google Панда

Для тех, кто еще не слышал о таком фильтре, сделаем небольшой экскурс в историю. Он появился весной 2011 года и моментально по Сети понесся шум.

Фильтр Гугл Панда преобразил результаты поиска: многие сайты получили повышение, а довольно много - упало. Буквально за несколько апдейтов выдача была сильно изменена. Что происходит, многим было не понятно, но вскоре на блоге SEOmoz были освещены некоторые аспекты.

Гугл Панда

Вероятные причины попадания под Панду:

  • Копипаст;
  • Маленькое количество контента на странице;
  • Бесполезный материал;
  • Переоптимизированный контент;
  • Слишком большое количество рекламы на странице.

Фильтр непредсказуем, Google Панда постоянно обучается и как он поведет себя в будущем предсказать сложно. Единственное можно добавить по переоптимизированному контенту. Плотность ключевых слов не должна составлять больше 5 - 6%.

Если на сайте присутствуют страницы с плотностью более 10%, то они могут тянуть на дно весь ресурс. Главное создавайте сайт не для поисковых ботов, а для людей и проблем с Пандой не возникнет.

Другие фильтры Google

Google Domain name Age Filter - молодой домен, на котором располагается ресурс заслуживает маленького доверия у поисковиков, поэтому сайт низко располагается в поисковой выдаче.

Google Sandbox - это фильтр для новых ресурсов. К новым сайтам доверие отсутствует, что касается конкурентных запросов, то такие ресурсы находятся далеко в поисковой выдаче.

Over Optimization Filter - большая насыщенность сайта заголовками (тег Н), повторений ключевых фраз и жирного текста (теги b, strong).

Google's Omitted Results Filter - пропущенные результаты. Дублирующийся материал, мало входящих ссылок, маленькая внутренняя перелинковка страниц.

Page Load Time Filter - долгое время загрузки, большой объем страницы, насыщенность рекламой и скриптами, страница не индексируется и как итог - понижение в поисковой выдаче.

Google Bombing - данный фильтр накладывается, если на ресурс ведет большое количество ссылок с одним и тем же описанием.

Too many pages at once Filter - накладывается на сайты на которых число новых страниц увеличивается не по дням, а по часам. Полезного материала сразу много не бывает.

Google -30 - применяется к ресурсам, на которых используются редиректы и дорвеи при помощи javascript. Ресурс опускается на 30-позиций в поисковой выдаче.

Фильтры Яндекс: АГС

Тяжелое орудие Яндекса - фильтр АГС направлен на борьбу с сателлитами, поскольку в последнее время они буквально заполонили Сеть и не приносят пользы посетителям. Выстрел по сайту, это еще не бан, но довольно серьезный удар по ресурсу.

Фильтр Яндекс АГС

Вылетают почти все страницы, в большинстве случаев остается одна морда сайта. Первопричиной попадания под выстрел считается отвратительный контент: плохой рерайт, синонимайз, машинный перевод и т.д. Сателлит то пропадает из выдачи практически весь и надолго, то вновь возвращается на кроткое время. Стоит АГС привязаться к ресурсу один раз, он от него не отвяжется.

Переоптимизация - работа данного фильтра направлена против злостных оптимизаторов. Начинает он работать, если находит частое использование ключевых фраз. В настоящее время для оптимального продвижения достаточно в статье упоминать ключевую фразу пару раз.

Аффилированные - для попадания в бан, достаточно пары сайтов расположенных на одном хосте и их продвижении по одинаковым ключевым запросам.

Непот фильтр - применяется к сайтам, использующим большое количество ссылочного спама, да еще неестественного: перестают учитываться внешние ссылки, и их продажа бессмысленна.

Потеря позиций - фильтр говорит сам за себя. Сайты наказываются за чрезмерное размещение ссылок на другие ресурсы.

Ты последний - применяется к сайтам, дублирующим сторонний контент. наказание ужасное - опускание сайта на "тысячные" позиции в выдаче.

Пессимизация - сайт попадает под этот фильтр, если обменивается ссылками с ресурсами, содержащими другую тематику.

Редирект фильтр - применяется к тем ресурсам, на которых используется редирект javascript.

Links Text - наиболее гуманный, просто сайты не индексируются если не содержат ключевых фраз.

Совсем недавно у Яндекса появился фильтр напоминающий "Песочницу" от Google. Только что созданные сайты некоторое время просто не допускаются на верхние места выдачи, пока не войдут в доверие к поисковой системе. Им придется немного подождать перед тем, как выйти в свет.

Как не попасть под фильтры поисковых систем

Чтобы избежать фильтров поисковых систем придерживайтесь следующих правил:

  1. Пишите и публикуйте только качественный контент;
  2. Старайтесь заливать на сайт новый материал чаще (оптимальным считается - 4 новых статьи в неделю);
  3. Наращивайте только качественную ссылочную массу. Получайте бэклинки с тематических и трастовых ресурсов;
  4. Необходимо позаботиться о работоспособности и правильной настройке служебных файлов (robots.txt, sitemap.xml и др.);
  5. Вовремя исправляйте на сайте "битые" ссылки.

Если будете писать качественные тексты для людей, заботиться о посетителях и юзабилити сайта, не спешить с наращиванием ссылочной массы, то о фильтрах, представленных в этой статье, можете забыть навсегда.

Автор: stingervx888
Источник: www.raskruty.ru
При перепечатке, ссылка на источник обязательна

Статьи - поисковики и каталоги

Разделы статей
Апдейты
  • Яндекс тИЦ
    19.05.2017 39 д. назад
  • Яндекс выдача
    22.06.2017 5 д. назад
Новости
Объявления
Популярные статьи