Почему резко упала посещаемость сайта?
Этот вопрос рано или поздно встает практически перед каждым владельцем сайта. Проблема может коснуться даже хорошо оптимизированного ресурса с оригинальным контентом, не злоупотребляющего внешними ссылками. Часто это происходит из-за ухудшения позиций сайта в выдаче. Ресурс труднее найти, и количество переходов из поиска уменьшается. В некоторых тематиках большую часть органического трафика дают всего несколько высокочастотных запросов, находящихся в ТОПе выдачи. Если сайт теряет позиции по этим запросам, существенно страдает посещаемость ресурса.
Рассмотрим в статье наиболее вероятные причины ухудшения позиций и, как следствие, падения трафика.
Фильтры поисковых систем
Фильтр — это своеобразный штраф поисковиков за нарушение правил оптимизации, в результате которого сайт серьезно понижается в выдаче. Так Google и Яндекс борются со спамом и вредоносными сайтами.
В основном фильтры отбраковывают переоптимизированные сайты и те, что используют черные методы продвижения. Например, фильтр «АГС» Яндекса предназначен для борьбы с сайтами, которые продают ссылки и не несут никакой пользы для обычных пользователей. А фильтр «Ты спамный» создан для борьбы с переоптимизированными страницами. В Google с подобной проблемой борется введенный в 2011 году алгоритм Panda.
Аффилиат-фильтр накладывается Яндексом при обнаружении двух сайтов, принадлежащих одной компании. В результате по одному запросу может находиться только один, самый релевантный, аффилиат из группы. Причем по разным запросам будет находиться то один, то другой сайт, но не оба вместе.
Еще у Яндекса есть фильтр за накрутку поведенческих факторов и за очень длинные тексты на одной веб-странице.
Для молодых сайтов у Google и Яндекса есть так называемая «песочница»: сайт моложе 6 месяцев не может ранжироваться лучше авторитетных старых сайтов по высокочастотным запросам.
Фильтр «минус 30» от Google борется со слишком активным и агрессивным продвижением сайта.
Далеко не всегда сразу удается установить, какой именно фильтр наложен и за что. Бывают ситуации, когда под фильтры попадают «белые и пушистые» с точки зрения SEO сайты. В любом случае необходимо сразу писать Платону Щукину в Яндекс.Вебмастер или в службу поддержки Google.
Внешние ссылки
Любой оптимизатор знает, что с внешними ссылками нужно быть аккуратным. Если переусердствовать с ними, будет больше вреда, чем пользы. Особенную осторожность нужно проявлять при построении ссылочного окружения молодого сайта. Небезызвестный алгоритм Google Penguin, запущенный в апреле 2012 года для борьбы со спамом во всех его проявлениях, затронул более 3% англоязычных запросов и 5% русских. В результате многие сайты потеряли от 10 позиций в выдаче.
Снятие ссылок
При переходе из одной SEO-компанию в другую арендованные ссылки зачастую снимаются, что моментально и довольно существенно сказывается на позициях сайта. Это в свою очередь вызывает явление, известное как «мигание» ссылок, — частое снятие или замену ссылок, которое негативно отражается на продвижении ресурса.
Дубли страниц
Дубли могут появляться из-за неправильной работы CMS. Еще их могут образовывать, например, страницы «Версии для печати» или страницы с идентификаторами сессии. В итоге вместо продвигаемой станицы в выдаче может оказаться ее дубль. Подобные страницы сайта нужно закрывать от индексации в файле robots.txt.
Неоригинальный контент
Для Яндекса большим авторитетом обладает первоисточник информации, и такие сайты в выдаче ранжируются выше. Поэтому мы своим клиентам рекомендуем размещать оригинальный контент или хотя бы качественный рерайт. При этом все новые тексты необходимо добавлять в специальный сервис Яндекса, тем самым указывая поисковику на первоисточник информации. В какой-то степени это также поможет защитить контент сайта от воровства.
Медленная работа сервера
Пользователям не нравится, если сайт медленно загружается или происходят частые сбои в его работе, это повышает коэффициент отказов. Поведение пользователей также учитывается поисковыми системами и может негативно сказываться на ранжировании сайта.
Изменения на сайте
Любые изменения на продвигаемом сайте необходимо согласовывать с оптимизатором. Чаще всего вред наносят:
- изменение (url) без перенаправления на новый сайт, иными словами битые ссылки;
- смена дизайна;
- смена CMS;
- изменения файла robots.txt, приводящие к выпадению страниц из поиска;
- изменение значительных объемов контента на сайте;
- наличие большого количества недоступных файлов, иллюстраций, ссылок, которые отдают ошибку 404. Необходимо поддерживать постоянную работоспособность и доступность всех файлов на сайте;
- сбои в работе процессов выгрузки каталогов из 1С и других учетных систем на сайт. Иногда поисковый робот заходит именно в тот момент, когда произошел сбой, каталог (некоторые параметры товаров, сами товары, иерархическая структура) выгрузился не до конца или вообще не выгрузился. Подобные случаи негативно сказываются на позициях в выдаче.
Доступность сайта
Для поисковых систем работоспособность сайта имеет определяющее значение, и если в момент индексации поисковый робот не может зайти на сайт дольше 24 часов, скорее всего, потери позиций в выдаче не избежать, особенно по топовым и высокочастотным запросам. Желательно поддерживать хостинг в полной работоспособности круглосуточно, а также не забывать вовремя продлевать срок регистрации домена, иначе можно моментально потерять нажитые годами позиции.
Провайдер
Провайдер — это организация, предоставляющая доступ в интернет. По жалобе провайдера на нелегальный контент доступ к сайту может быть ограничен или заблокирован. Это часто случается с торрентами, сайтами с фильмами и музыкой, но может произойти с любым сайтом при подозрении на пиратство.
Сезонность
В некоторых сферах бизнеса на посещаемость сайта большое влияние оказывает сезонность — речь о так называемом сезонном трафике. Вопреки народной мудрости, лыжи и санки все же гораздо больше востребованы зимой, а кондиционеры — летом. Некоторые запросы имеют явную сезонную направленность: например, «подледная рыбалка». Поэтому не стоит удивляться изменениям в объемах трафика со сменой времени года.
Вирусы
Не секрет, что поисковые системы ограничивают доступ к сайтам, которые не внушают доверия, содержат вирусы или большое количество рекламы (кликандеров, попандеров и т. д.). Поэтому не забывайте проверять сайт на вирусы и не злоупотребляйте рекламой.
Подведем итоги
В статье описаны основные моменты, из-за которых может произойти резкое падение трафика. Но каждый случай индивидуален, и, чтобы избежать подобных проблем, регулярно отслеживайте трафик на сайт при помощи Google Analytics или Яндекс Метрики, смотрите на позиции в выдаче, следуйте рекомендациям поисковых систем и следите за обновлением их алгоритмов.