Можно ли доверять автоматической кластеризации — мнение Rush Analytics
Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации — группировке на основе поисковой выдачи.
Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.
Если кто не знает принципа такой группировки, то происходит она так:
- Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
- Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.
На основе полученных данных можно составить семантическую структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.
Как проверить эффективность автоматической группировки?
Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен — нужно было создать сайт. Показатель трафика — отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано — сделано!
Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.
Параметры сайта на старте:
- Домен — свежерег.
- Дизайн — уникальный.
- Мобильная версия — нет.
- HTTPS — нет.
- Контент — 10 новостей (рерайт).
- Конкуренция — средняя.
- Ниша — узкая.
- Тематика — мужская.
История основного ВЧ запроса по Wordstat
Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.
Настройки проекта:
Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.
Вот собственно и все. Автоматическая кластеризация запросов делается быстро, и от вас ничего не требуется во время сбора данных.
Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.
Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.
Сработала ли группировка на основе поисковой выдачи?
Позиции отслеживались также в Rush Analytics и результаты выглядят следующим образом:
А вот и график посетителей из поисковых систем. Указываю данные только из ПС, так как другие источники, в данном случае, нас не интересуют, хотя присутствуют посетители из социальных сетей и переходы с ссылок на сайтах.
К моменту написания статьи ежедневный трафик составлял 785 уникальных посетителей в сутки.
Что делать с некластеризованными запросами?
На данный момент есть несколько вариантов работы с такими запросами, но рассмотрим один — когда их просто исключают из работы.
Эти запросы были занесены на отдельную вкладку и ждали своего часа. Они никак намеренно не использовались при написании контента. В сборщике позиций был создан отдельный проект.
Как видно на графике, запросы, которые не участвовали в общем написании контента получили неплохие позиции. При желании их можно дожать, что поможет продвинуть часть фраз к ТОП 10.
Выводы
- Автоматическую группировку можно применять. Работа, сделанная на полном автомате, без вычитки и ручной проверки, дает свой результат. Хороший или плохой — решать вам.
- Однозначно на двух одинаковых сайтах одна и та же семантика может отразиться по-разному. Так что не стоит забывать о рисках.
- Некластеризованные запросы не нужно удалять. Даже если они не попали в ТОП 10-30, вы можете через релевантные страницы найти для них место на сайте и уже вручную или через текстовый анализатор доработать статью.