обновление основного алгоритма ранжирования Google

Глен Гейб — независимый эксперт по алгоритмам Google. Недавно в его блоге появилась аналитическая статья, раскрывающая интересную суть основного алгоритма Google, и показывающая на примерах, как он работает.

Что нужно знать вебмастеру и оптимизатору об основном алгоритме Google

Основной алгоритм — это коллекция дочерних алгоритмов, работающих на отдельные группы факторов, а не единая формула. В ходе каждого обновления изменяются отдельные baby-алгоритмы. Поэтому один и тот же сайт может проседать в одном и подниматься в выдаче в другом обновлении без каких-либо внесенных изменений.

Наибольшие изменения поисковой выдачи наблюдаются в тематиках медицины и здоровья.

В мае Джон Мюллер подтвердил, что алгоритм стал критичнее оценивать такие сайты. Также Google стал точнее определять качество контента и уровень доверия пользователей. 

Алгоритм еще не до конца отточен и часто понижает сайты незаслуженно. Просадки трафика достигают 80%. Если сайт попадает под действие алгоритма и проседает в выдаче, есть вероятность, что безо всяких изменений его позиции восстановятся в ходе последующего обновления.

Посмотрим работу алгоритма на графиках. Следующие примеры показывают изменения позиций сайтов в ходе нескольких обновлений основного алгоритма в 2019 году. Здесь вы увидите, насколько сильно алгоритм меняет видимость сайта в выдаче:

просадка органического трафика в ходе обновлений google

резкий рост и просадка трафика в ходе обновлений Google коррекция
резкое падение органического трафика из Google в ходе обновления основного алгоритма

А теперь рассмотрим действие алгоритма в ходе сентябрьского обновления:

график роста трафика после обновления алгоритма Google
график стабильный спад трафика в ходе обновлений алгоритма Google 2019

По наблюдениям эксперта под действие алгоритма попадали разные сайты, в том числе те, которые публиковали качественный экспертный контент, оптимизировали интерфейс и UX, сокращали количество рекламы, не применяли агрессивные рекламные форматы. Алгоритм все равно их задевал.

Но это не значит, что при просадке трафика в ходе обновления вебмастеру нечего исправлять. 

Интересные кейсы эксперта

Далее посмотрим, по каким факторам проседали сайты в выдаче и как восстанавливались после оптимизации.

Большой сайт отзывов

Сильная просадка трафика и отсутствие положительной динамики в ответ на любые действия оптимизатора. 

Корень проблемы: в индекс Google попало много страниц низкого качества. На сайте достаточно качественного контента, но вот старые страницы с контентом низкого качества как раз и определили просадку.

При расчете качества сайта алгоритм учитывает все страницы из индекса.

Для реанимирования сайта эксперт предложил схему, о которой расскажем ниже. Вот результат:

рост органического трафика после внесения изменений по рекомендациям эксперта

Новостной сайт 

Потерял 74% трафика в ходе июньского обновления основного алгоритма.

Основная проблема: агрессивный формат рекламы над линией сгиба. Рекламы было много на каждой странице. Также в начале основного контента размещался большой рекламный блок, который смещал статью сильно вниз. Эксперт обнаружил на сайте много старых статей низкого качества, некоторые из них написаны неопытными авторами.

Вебмастер удалил некачественные страницы. Сайт получил естественные качественные ссылки (упоминания) с авторитетных ресурсов. А по словам Гари Илша, авторитетность и репутация сайта во многом зависят именно от качества и количества упоминаний другими авторитетными источниками.

Эти действия привели к резкому увеличению трафика от 600 посетителей в сутки до 6000.

рост органического трафика в 10 раз после оптимизации сайта

Сайт нетрадиционной медицины 

Потерял 55% трафика в ходе мартовского обновления алгоритма.

график резкого снижения трафика в ходе обновления

Основная проблема: бесполезный контент, контент низкого качества, опять же агрессивные форматы рекламы, удобство пользовательского интерфейса.

Владельцы не стали удалять контент низкого качества и сокращать количество рекламы. Частичное решение проблем с контентом привело к такому же частичному восстановлению:

частичное восстановление трафика после частичных исправлений

Короткие выводы по кейсам:

Основной фактор, на который срабатывает алгоритм — качество контента. 

У большинства сайтов имеются проблемы с количеством, качеством и методами подачи рекламы (рекламные форматы). По мнению эксперта, реклама, перекрывающая контент, появляющаяся до основного контента в большинстве случаев способствует просадке.

Удобство интерфейса в общем и взаимодействия с контентом в частности также упоминаются практически в каждом кейсе, с которыми работал эксперт в ходе сентябрьского обновления.

Копированный контент всегда был фактором негативного влияния на ранжирование сайтов.

Схема определения и исправления ошибок от эксперта

Глен Гейб предлагает следующее решение для сайтов, которые потеряли трафик и позиции в ходе гугловских обновлений:

  • анализ качества контента, определение бесполезного контента, контента низкого качества. В качестве решения проблемы можно повысить качество и полезность публикаций, удалить страницы низкого качества, применить noindex.
  • проверка технического состояния проекта, не закрыты ли страницы от индексации, правильно ли отображается контент, правильно ли применен атрибут canonical.
  • анализ размещения рекламы на сайте: количество, качество, место и формат. Отвлекает ли реклама от просмотра контента, мешает ли взаимодействию, перекрывает/смещает контент? Есть ли на сайте реклама, вводящая в заблуждение?
  • анализ юзабилити и интерфейса: понятен ли сайт пользователям, легко ли найти и перейти на нужную страницу, понятна ли навигация, нет ли на сайте всплывающих окон, перекрывающих доступ к основному контенту? Есть ли элементы, которые, по вашему мнению, могут раздражать пользователей? 
  • насколько полно страница соответствует ожиданиям пользователя? Анализ запросов, ожиданий и намерений пользователей и соответствия страницы и контента ожиданиям.
  • точен, достоверен ли контент? Написан ли авторами “в теме”? 
  • анализ ссылочного профиля и ссылочной стратегии: не количество, а качество ссылок играют роль

Почему хорошие сайты проседают в ходе обновлений?

Поисковые системы постоянно переоценивают качество и релевантность контента поисковому запросу. Каждый день в индекс поиска попадают тысячи новых материалов: лучше, круче, глубже, интереснее, точнее, актуальнее. Эти страницы задают новые стандарты качества.

Поэтому любой сайт может пострадать в ходе обновления. Не потому что качество контента резко ухудшилось. Просто стандарты стали выше.

Также меняются ожидания пользователей от сайтов: то, что отвечало на вопросы год назад, сейчас оказывается неактуальным и устаревшим. Контент уже не отвечает на вопрос полностью, не решает проблему. Это также становится причиной просадки. 

Поэтому повторим рекомендацию, которую давали в одной из прошлых материалов. Чтобы понять, насколько у вас хороший контент на сайте, ответьте себе честно на вопрос:

это то, что ожидает увидеть пользователь по этому запросу?

Источник
0
Поделиться: