Здесь я пишу о том, что мне интересно
Всегда в топе
· профессиональный аудит сайтов
· продвижение проектов любой сложности
· консультации по всем этапам продвижения
· блокады сайта фильтрами поиска
· стратегии непоискового продвижения
· создание компаний контекстной рекламы
· корпоративные аккаунты в соцсетях
· вывод сайтов из под ручных санкций Google
· вывод сайтов из под санкций Яндекс
· гарантированное удаление любых ссылок
· индивидуальные консультации
ноябрь 14, 2017, 08:26
Ранжирование в Google: исследование SemRush 2.0
Вышел свежий отчет о ранжирующих факторах текущего алгоритма Google от компании SemRush. Это второе подобное ежегодное исследование, можно ознакомиться на языке оригинала (PDF). Я прокомментирую здесь основные моменты, которые были неизвестны для вебмастеров отечественного сегмента до этого момента.
Методика исследования
Исследовалась следующая выборка данных: 600 000 ключевых слов из мировой базы SemRush (США, Испания, Франция, Италия, Германия и др.) и сайты из SERP по первым 100 позиция в поиске Google по каждой фразе. Вместо корреляционного анализа (который дает корреляцию всего 0.3% по известным ранжирующим факторам) использовалось глубокое машинное обучение нейросети по алгоритму Random Forest.
Для каждой страницы в выдаче проанализированы следующие факторы:
· Он-пейдж оптимизация
· Ссылочный профиль
· Данные по трафику
Поскольку в высококонкурентных нишах сайты продвигаются принципиально другими методами, результаты также были отсортированы по частоте ключевых запросов:
· низкочастотные 1-100
· среднечастотные 101-1000
· высокочатотные 1001-10000
· сверхвысокочастотные 10001+
Метододика исследования подробно описана здесь.
Сразу хочу высказать некоторые сомнения по поводу актуальности данных по анализу трафику, поскольку с моей точки зрения, SemRush сильно завышает органику, и очень часто не может отделить CPC трафик от органического. Сужу исключительно по своим проектам. Поэтому отнеситесь с некоторой долей скептицизма к тем парадоксальным результатам, которые делают ребята из СемРаш в этом рисёрче.
Результаты одной картинкой
Тадааам! Основные ранжирующие факторы в действующем поиске Google - это прямой трафик на сайт и поведенческие факторы. Однако, в исследовании по прежнему уделяется большое внимание бэклинкам. Давайте посмотрим, что с ними (не пора ли похоронить ссылочное продвижение для этой ПС?).
Как Google учитывает бэклинки в 2017-м
Обратите внимание на "провал" первой позиции. Это очень интересная фича этого исследования. Я выскажу свои мысли по его поводу чуть ниже результатов исследования.
- Вполне ожидаемые данные, которые приводились в ранее сделанных исследованиях (опять же, если не смотреть на первую позицию). А вот на этих графиках - уже сюрприз:
Посмотрите, до чего довел людей Google со своим шерстяным антарктическим зверьком!
Мало кто использует анкоры с ключевыми словами в ссылках!!!
Изюминка исследования
Да-да, это то самое, чего ранее не находил никто в исследовании выдачи Google. И я сожалею, что остальные графики не скорректированы в исследовании таким же образом! Получается, что нужно учитывать все основные факторы не применительно к вашему домену, а исключительно к той странице, которая позиционируется в выдачу. И здесь отрыв первой позиции просто колоссален. Я побежал делать работу над ошибками...
P.S. Я намерянно опустил данные по таким ранжирующим факторам как:
· Использование шифрования SSL (протокол HTTPS на сайте)
· Длина контента
· On page факторы (присутствие ключейв значимых для поиска тэгах)
· Данные визитов (число и bounce rate)
Они находятся в ожидаемых и интуитивно понятных пределах. Для детального выяснения влияния этих вещей, отсылаю вас к оригиналу исследования (ссылка в начале статьи) - мне эти данные не показались новыми.