Во время традиционной онлайн встречи вебмастеров гугловец Джон Мюллер ответил на вопрос о том, как вернуть позиции сильно просевшему сайту, и указал возможные причины просадки.
Дать точные рекомендации, не видя сайт, невозможно.
К эксперту обратился вебмастер, чей сайт просел в выдаче после 14 января. При этом уведомлений о нарушениях или примененных санкциях в Search Console не поступало.
Мюллер ответил, что 14 января не было никаких официальных обновлений алгоритма, поэтому просадка вряд ли произошла по причине алгоритмической корректировки.
Эксперт указывает, что важно учитывать несколько факторов, чтобы понять, почему позиции сайта могли сильно измениться:
- в поиске участвует большое количество сайтов — не бывает такого, чтобы все сайты упали в выдаче, всегда есть те, кто показывается выше. Надо следить за сайтами конкурентов и оценивать, какие изменения они вносят в контент и в работу в целом, чтобы их позиции в поиске так изменились.
- интерес пользователей к теме постоянно меняется — если тема исчерпала себя, а поисковый интерес снизился, то ничего удивительного, что сайт больше не получает трафик. Поэтому также важно следить за актуальностью событий и изменений в теме и своевременно обновлять или публиковать новый контент.
- не все изменения, вносимые вебмастером или оптимизатором, идут на пользу сайту — возможно, что последние изменения и стали причиной просадки. Также возможно, что сам Google изменяет алгоритмы оценки факторов качества.
Может ли сайт просесть из-за действий конкурентов
Другой вебмастер указал, что его сайт сильно просел в результатах выдачи из-за “проделок” конкурентов, которые:
- поставили около 3000 спамных ссылок на его сайт, а также
- направили DMCA жалобы (Digital Millennium Copyright Act — закон об авторском праве в цифровую эпоху, на котором основан один из фильтров Google за публикацию нелегального контента). Вот выдержка из официального блога Google:
In the rare cases in which we perceive that duplicate content may be shown with intent to manipulate our rankings and deceive our users, we’ll also make appropriate adjustments in the indexing and ranking of the sites involved. However, we prefer to focus on filtering rather than ranking adjustments …
В ответ Мюллер указывает, что с ссылками конкурентов делать ничего не надо. Алгоритм умеет распознавать такие атаки и не учитывает их в ранжировании.
Что же касается жалоб на нелегальный и дублированный контент, Мюллер рекомендует отвечать на такие сообщения, если жалобы необоснованные.
Если же вебмастер действительно скопировал контент из другого источника, нарушая авторские права, то такие страницы стоить исправить и привести в соответствие с требованиями Google:
If you syndicate your content on other sites, make sure they include a link back to the original article on each syndicated article. Even with that, note that we’ll always show the (unblocked) version we think is most appropriate for users in each given search, which may or may not be the version you’d prefer.
Если вы перепубликуете контент либо ваши публикации в точности появляются на других сайтах, убедитесь в наличии ссылки на оригинальный источник. Но даже в таком случае надо учитывать, что Google покажет тот документ, который посчитает более подходящим.
Посмотреть ответы Мюллера.
Теперь эта публикация доступна на Дзен-канале Miralinks!
Тоже мне авторитет…
1 из сайтов, завалили исключительно индусскими ссылками, как раз около 3000 шт.
Посещалка была 5000+, теперь в лучшие дни 1500 ….
Это просто моя боль — копирование статей с сайтов. Особенно неприятно, когда в результате в топе скопированные с нашего ресурса статьи. На этом основана работа некоторых горе-мастеров — копировать статьи с сайтов в топе, размещать их у себя с большим количеством ссылок и историей домена. Оригинальный сайт при этом часто вылетает из поиска вообще. А вообще для борьбы со спамными ссылками есть инструменты Google, их можно закрывать, вы не в курсе?
Конечно, в Google можно отклонять ссылки. Вот ссылка на страницу поддержки.
Интересный опыт, а какой основной источник трафика: Google или Яндекс?