Усовершенствованный алгоритм Google Penguin

Пингвин

В основу запущенного весной 2012 года, алгоритма Google Penguin, заложены антиспамные техники, регулирующие качество ссылочной массы на сайты. Чтобы пользователи находили полезные и рекомендуемые ресурсы, а не те у владельцев которых, финансовые возможности выше, «Пингвин» фильтрует купленные ссылки. После обновления в 2016 году новый релиз Google Penguin начал работать как элемент базового алгоритма поисковика Google.

Условия функционирования алгоритма

Принцип работы алгоритма с 2014 г. претерпел некоторые изменения. Google Penguin с этого года начал функционировать в режиме реального времени. Обновление алгоритма с 2016 года происходит одновременно с переиндексацией и выполненными исправлениями. До этого ожидание апдейта занимало немало времени и выход из-под фильтра был дольше.

Ресурсы страдают из-за прямых (исходящих) и обратных (входящих) ссылок, а также сопровождающего их переоптимизированного контента. Фильтрует тексты, размещённые для манипуляции поисковой выдачей, алгоритм «Панда». Оба алгоритма разработаны для работы в тандеме и дополняют друг-друга. 

Ссылаться со своего сайта лучше на качественные ресурсы, не забывая об атрибуте rel="nofollow" и свести размещение платных статей с гиперссылками к минимуму.

Иногда спамные ссылки оставляют пользователи в комментариях. Некоторые деятели пишут белым шрифтом по белому фону. В DRUPAL проблема предупреждается так: устанавливается для пользователей в редакторе формат Plain text. В этом случае HTML-теги не обрабатываются и ссылка не индексируется, а отображается как текст.

Google Penguin срабатывает в ручном (при проверке модераторами Google) и в автоматическом режиме.

Существуют признаки, позволяющие выявить нахождение страниц сайта под автоматическим фильтром. Например, это позиции, просадка которых составляет 30–50 пунктов. Одновременно уменьшается трафик из поисковика Google.

Ресурсы, пострадавшие от Google Penguin, объединяют следующие общие проблемы:

• ссылочная масса с подозрительных сайтов;

• много анкоров в прямом вхождении;

• наличие однопрофильных ссылок.

В результате действия фильтра сайт выпадает из зоны действия поисковика Гугл на 100%. Проседание позиций происходит в среднем на 10-20 пунктов.

За месяц до снижения трафика Google присылает на почтовый адрес вебмастера уведомление с замечанием о неестественных ссылках на ресурс. Что расценивается компанией, как манипуляция поисковой выдачей и нарушение условий алгоритма поисковика. После проверки сайт понижают за спамную ссылочную массу.

Если ограничение накладывается после проверки вручную, то в Search Console приходит сообщение в раздел «Проблемы безопасности и меры, принятые вручную".

Вывод сайта из-под Google Penguin

пингвин

Резко падающий трафик поднимают при соблюдении определённых условий. Меры, для вывода ресурса из-под фильтров, следующие:

• увеличение массы естественных ссылок;

• уменьшение числа спамных анкоров, представляющих собой коммерческие запросы;

• снижение числа неестественных ссылок, динамика которых связана с резкими скачками;

• приведение в соответствие донорских тематик с ресурсами акцепторов, чтобы повысить релевантность сайта;

• снижение заспамленности донора;

• удаление некачественных ссылок с помощью инструмента «Отклонение обратных ссылок» в Search Console. Разработчики предупреждают, что предварительно большинство линков удаляют самостоятельно, например, написав администратору ссылающегося ресурса. К инструменту Google стоит прибегать в крайнем случае.

На вывод ресурса из-под действия алгоритма потребуется две недели.

Способы защиты от Google Penguin

Избежать фильтра поисковика Гугл можно при повышении качества ссылочной массы. Помогут следующие мероприятия:

• использовать ключи в разбавленном, а не только в прямом вхождении, размещая анкоры с добавлением слов «здесь», «тут»;

• контролировать количество прямых и обратных ссылок в Search Console;

• увеличивать ссылочную массу не скачками, а постепенно;

• использовать больше доноров, избегая многочисленных обратных ссылок с одного ресурса;

• проставить линки на разные страницы сайта;

• прослеживать качество донорских ресурсов.

Для снижения вероятности попадания под санкции поисковика, повышают качество, а не количество ссылочной массы. Иначе трафик ресурса будет падать. Если сайт коммерческий, то произойдёт снижение количества поступающих звонков и заявок, включая продажи. Постоянное совершенствование алгоритма требует регулярного проведения аудита сайта.

Tags: 

Оценка: 

0
Голосов пока нет