Правильное семантическое ядро. Составляем качественное семантическое ядро

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее «курите» в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах SE Ranking - лучший сервис мониторинга позиций для новичков и профессионалов в SEO Сбор полного семантического ядра в Топвизоре, многообразие способов подбора ключевых слов и их группировка по страницам Практика сбора семантического ядра под SEO от профессионала - как это происходит в текущих реалиях 2018 Оптимизация поведенческих факторов без их накрутки SEO PowerSuite - программы для внутренней (WebSite Auditor, Rank Tracker) и внешней (SEO SpyGlass, LinkAssistant) оптимизации сайта Подбор ключевых слов в Яндекс Вордстате - анализ статистики вручную и с помощью программ Slovoeb или Key Collector
Serpstat - обзор инструментов "Мониторинг позиций", "Кластеризация" и "Текстовая аналитика"

Если у Вас встал вопрос «Как составить семантическое ядро», то перед решением надо сначала разобраться, с чем Вы связались.

Семантическое ядро сайта представляет собой список фраз, которые вводят пользователи в поисковых системах. Соответственно, продвигаемые страницы должны отвечать на пользовательские запросы. Разумеется, нельзя пихать на одну и ту же страницу кучу разнотипных ключевых фраз. Один основной поисковый запрос = одна страница.

Важно, чтобы ключевые слова соответствовали тематике сайта, не имели грамматических ошибок, имели вменяемую частотность, а также соответствовали по ряду других характеристик.

Семантическое ядро обычно хранится в Excel-таблице. Эту таблицу можно хранить/создать где угодно - на флешке, в Google Docs, на Яндекс.Диске либо где-то еще.

Вот наглядный пример простейшего оформления:

Особенности подбора семантического ядра сайта

Для начала следует понимать (хотя бы примерно) какие именно фразы использует Ваша аудитория при работе с поисковой системой. Этого будет вполне достаточно для работы с инструментами по подбору ключевых фраз.

Какие ключи использует аудитория

Ключи — это как раз и есть те самые фразы, которые пользователи вводят в поисковые системы для получения той или иной информации. Например, если человек хочет купить холодильник, он так и пишет - «купить холодильник», ну или «купить холодильник недорого», «купить холодильник samsung» и т.д., в зависимости от предпочтений.

Теперь давайте разбираться с признаками, по которым можно классифицировать ключи.

Признак 1 - популярность . Здесь ключи можно условно разделить на высокочастотные, среднечастотные и низкочастотные.

Низкочастотные запросы (иногда обозначаются как НЧ) имеют частоту до 100 показов в месяц, среднечастотные (СЧ) - до 1000, а высокочастотные (ВЧ) - от 1000.

Однако, эти цифры являются чисто условными, ибо есть масса исключений из этого правила. Например, тематика криптовалюты. Здесь гораздо правильнее считать низкочастотными запросы с частотой до 10000 показов в месяц, среднечастотными - от 10 до 100 тысяч, а высокочастотными - все остальное. На сегодня ключевое слово «криптовалюта» имеет частоту более 1,5 миллионов показов в месяц, а «биткоин» зашкалил за 3 миллиона.

И несмотря на то, что «криптовалюта» и «биткоин», на первый взгляд, являются очень вкусными поисковыми запросами, гораздо правильнее (как минимум на начальных этапах) делать акцент именно на низкочастотых запросах. Во-первых, потому что это более точные запросы, а значит, приготовить релевантный контент будет проще. Во-вторых, низкочастотных запросов ВСЕГДА в десятки-сотни раз больше, чем высокочастотных и среднечастотных (причем в 99,5% случаев - еще и вместе взятых). В-третьих, «низкочастотное ядро» гораздо проще и быстрее расширить, чем два других. НО… Это не значит, что СЧ и ВЧ нужно игнорировать.

Признак 2 - потребности пользователя . Здесь можно условно разделить на 3 группы:

  • транзакционные - подразумевают какое-то действие (содержат в себе слова «купить», «скачать», «заказать», «доставка» и т.д.)
  • информационные - просто поиск тех или иных сведений («что будет, если», «что лучше», «как правильно», «как сделать», «описание», «характеристики» и т.д.)
  • прочие. Это особая категория, т.к. непонятно, чего именно хочет пользователь. Для примера возьмем запрос «торт». «Торт» что? Купить? Заказать? Испечь по рецепту? Посмотреть фотографии? Непонятно.

Теперь о применении второго признака.

Во-первых , данные запросы лучше не «смешивать». Например, у нас есть 3 поисковых запроса - «ноутбук dell 5565 amd a10 8 гб hd купить», «ноутбук dell 5565 amd a10 8 гб hd обзор» и «ноутбук dell 5565 amd a10 8 гб hd». Ключи почти полностью идентичны. Однако, именно отличия и играют решающую роль. В первом случае мы имеем «транзакционный» запрос, по которому нужно продвигать именно карточку товара. Во втором - «информационный», а в третьем - «прочий». И если по информационному ключу нужна отдельная страница, то логично задать вопрос - а что делать с третьим ключом? Очень просто - просмотреть ТОП-10 Яндекса и Google по данному запросу. Если будет много торговых предложений - значит запрос все-таки коммерческий, а если нет - значит информационный.

Во-вторых , транзакционные запросы можно условно подразделить еще и на «коммерческие» и «некоммерческие». В коммерческих запросах придется конкурировать с «тяжеловесами». Например, по запросу «купить samsung galaxy» придется конкурировать с Евросетью, Связным, по запросу «купить духовой шкаф ariston» - с М.Видео и Эльдорадо. И что делать? Очень просто - «замахиваться» на запросы, у которых гораздо более низкая частота. Например, на сегодня запрос «купить samsung galaxy» имеет частоту около 200 000 показов в месяц, в то время, как «купить samsung galaxy a8» (а это уже вполне конкретная модель линейки) имеет частоту 3600 показов в месяц. Разница в частоте громадная, но по второму запросу (именно за счет того, что подразумевается вполне конкретная модель) можно получить гораздо больше трафика, чем по первому.

Анатомия поисковых запросов

Ключевую фразу можно разбить на 3 части - тело, спецификатор, хвост.

Для наглядности возьмем уже рассмотренный ранее «прочий» запрос - «торт». Чего хочет пользователь - непонятно, т.к. он состоит только из тела и не имеет спецификатора и хвоста. Однако, он высокочастотный, а значит имеет бешеную конкуренцию в поисковой выдаче. Однако, 99,9% при посещении сайта скажет «нет, это не то, что я искал» и просто уйдет, а это негативный поведенческий фактор.

Добавим спецификатор «купить» и получаем транзакционный (а в качестве бонуса - еще и коммерческий) запрос «купить торт». Слово «купить» отражает намеренья пользователя.

Поменяем спецификатор на «фото» и получим запрос «торт фото», который уже не является транзакционным, ибо пользователь просто ищет фотографии тортов и ничего покупать не собирается.

Т.е. именно с помощью спецификатора мы и определяем какой это запрос - транзакционный, информационный или прочий.

С продажей тортов разобрались. Теперь к запросу «купить торт» добавим словосочетание «на свадьбу», которое будет являться «хвостом» запроса. Именно «хвосты» делают запросы более конкретными, более детальными, но при этом не отменяют намерений пользователя. В данном случае - раз торт свадебный, то торты с надписью «с днем рождения» отметаются сразу, т.к. они не подходят по определению.

Т.е. если взять запросы:

  • купить торт на рождение ребенка
  • купить торт на свадьбу
  • купить торт на юбилей

то мы увидим, что цель пользователя одна и та же - «купить торт», а «на рождение ребенка», «на свадьбу» и «на юбилей» отражают потребность более детально.

Теперь, когда Вы знаете анатомию поисковых запросов, можно вывести некую формулу подбора семантического ядра. Для начала определяете некие базовые термины, имеющие прямое отношение к Вашей деятельности, а затем собираете наиболее подходящие спецификаторы и хвосты (расскажем немного позже).

Кластеризация семантического ядра

Под кластеризацией подразумевается распределение собранных ранее запросов по страницам (даже если страницы еще не созданы). Зачастую этот процесс называют «группировкой семантического ядра».

И вот тут многие допускают одну и ту же ошибку - разделять запросы нужно по смыслу, а не по количеству имеющихся страниц на сайте или в разделе. Страницы при необходимости всегда можно создать.

Теперь давайте разберемся, какие ключи куда распределять. Сделаем это на примере структуры, в которой уже есть несколько разделов и групп:

  1. Главная страница. Для нее отбираются только самые важные, конкурентные и высокочастотные запросы, являющиеся основой продвижения сайта в целом. («салон красоты в Санкт-Петербурге»).
  2. Категории услуг/товаров. Здесь вполне логично разместить запросы, не содержащие в себе особой конкретики. В случае с «салоном красоты в СПб» вполне логично создать несколько категорий по ключам «услуги визажиста», «мужской зал», «женский зал» и т.п.
  3. Услуги/товары. Здесь уже должны фигурировать более конкретные запросы - «свадебные прически», «маникюр», «вечерние прически», «окрашивание» и т.п. В какой-то степени это «категории внутри категории».
  4. Блог. Сюда подойдут информационные запросы. Их гораздо больше, чем транзакционных, поэтому и страниц, которые будут им релевантны, должно быть больше.
  5. Новости. Сюда выделяются ключи, наиболее подходящие для создания коротких новостных заметок.

Как выполняется кластеризация запросов

Существует 2 основных способа кластеризации - ручная и автоматическая.

У ручной кластеризации есть 2 основных минуса: долго, трудоёмко. Однако, весь процесс контролируется лично Вами, а значит можно добиться очень высокого качества. Для ручной кластеризации будет вполне достаточно Excel’я, Google Таблиц либо Яндекс.Диска. Главное - иметь возможность фильтровать и сортировать данные по тем или иным параметрам.

Многие для кластеризации используют сервис Keyword Assistant. По сути, это ручная кластеризация с элементами автоматики.

Теперь рассмотрим плюсы и минусы автоматической группировки, благо, сервисов много (как бесплатные, так и платные) и выбирать есть из чего.

Например, внимания достоин бесплатный сервис кластеризации от команды SEOintellect. Он подойдет для работы с небольшими семантическими ядрами.

Для «серьезных» объемов (несколько тысяч ключей) уже имеет смысл пользоваться платными сервисами (например, Топвизор, SerpStat и Rush Analytics). Работают они следующим образом: Вы загружаете ключевые запросы, а на выходе получаете готовы Excel-файл. Упомянутые выше 3 сервиса работают примерно по одной и той же схеме - группируют по смыслу, анализируя пересечение фраз, а также по каждому запросу просматривают ТОП-30 поисковой выдачи, чтобы выяснить, на скольких URL встречается запрашиваемая фраза. На основе вышеперечисленного и происходит распределение по группам. Происходит все это «в фоне».

Программы для создания семантического ядра

Для сбора подходящих поисковых запросов есть множество платных и бесплатных инструментов, есть из чего выбрать.

Начнем с бесплатных.

Сервис wordstat.yandex.ru. Это бесплатный сервис. Для удобства рекомендуется установить в Ваш браузер плагин Wordstat Assistant. Именно поэтому мы будем рассматривать эти 2 инструмента в паре.

Как это работает?

Очень просто.

Для примера мы соберем небольшое ядро по путевкам в Анталию. В качестве «базовых» у нас будет 2-й запрос - «туры в анталию» (в данном случае количество «базовых» запросов не принципиально).

Теперь переходим по адресу https://wordstat.yandex.ru/ , логинимся, вставляем первый «базовый» запрос и получаем список ключей. Затем с помощью «плюсиков» добавляем подходящие ключи в список. Обратите внимание, если ключевая фраза окрашена в синий и слева обозначена плюсом, значит ее можно добавить в список. Если же фраза «обесцвечена» и помечена минусом - значит она в список уже добавлена, а нажатие на «минус» приведет к ее удалению из списка. Кстати, список ключей слева и плюсы-минусы - это и есть те самые фишки плагина Wordstat Assistant, без которых работа в Яндекс.Wordstat вообще не имеет смысла.

Также стоит отметить, что список будет сохранен ровно до тех пор, пока он лично Вами не будет откорректирован или очищен. Т.е. если вбить в строку «телевизоры samsung», то список ключей Яндекс.Wordstat обновится, но ранее собранные ключи в списке плагина сохранятся.

По этой схеме прогоняем через Wordstat все заранее подготовленные «базовые» ключи, собираем всё необходимое, а затем путем нажатия на одну из этих двух кнопок копируем собранный ранее список в буфер обмена. Обратите внимание, что кнопка с двумя листиками копирует список без частот, а с двумя листиками и числом 42 - с частотами.

Затем скопированный в буфер обмена список можно вставить в таблицу Excel.

Также в процессе сбора можно просмотреть статистику показов по регионам. Для этого в Яндекс.Wordstat есть вот такой переключатель.

Ну а в качестве бонуса можно глянуть историю запроса - узнать, когда частота повышалась, а когда - понижалась.

Данная фишка может быть полезна при определении сезонности запроса, а также для выявления падения/роста популярности.

Еще одной интересной фишкой является статистика показов по указанной фразе и ее формам. Для этого необходимо заключить запрос в кавычки.

Ну а если перед каждым словом добавить еще и восклицательный знак, то в статистике будет отображено количество показов по ключу без учета словоформ.

Не менее полезным является оператор «минус». Он убирает ключевые фразы, в которых содержится указанное Вами слово (или несколько слов).

Есть и еще один хитрый оператор - вертикальный разделитель. Он необходим для того, чтобы объединить сразу несколько списков ключей в один (речь про однотипные ключи). Для примера возьмем два ключа: «туры в анталию» и «путевки в анталию». В строке Яндекс.Wordstat прописываем их следующим образом и получаем на выходе 2 списка по этим ключам, объединенных в один:

Как видите, у нас куча ключей, где есть «туры», но нет «путевок» и наоборот.

Еще одной важнейшей фишкой является привязка частоты к региону. Регион можно выбрать вот тут.

Использование Wordstat для сбора семантического ядра подойдет в том случае, если Вы собираете мини-ядра для каких-то отдельных страниц, либо не планируете больших ядер (до 1000 ключей).

SlovoEB и Key Collector

Мы не прикалываемся, программа именно так и называется. Если в двух словах, то программа позволяет делать ровно то же самое, но в автоматическом режиме.

Данная программа разработана командой LegatoSoft - та самая команда, которая разработала Key Collector, о нем тоже пойдет речь. По сути, Словоёб является сильно обрезанной (но бесплатной) версией Кей Коллектора, однако для работы со сбором небольших семантических ядер он вполне справляется.

Специально для Словоёба (или Кей Коллектора) имеет смысл создать отдельный аккаунт на Яндексе (если забанят - не жалко).

Единоразово необходимо произвести небольшие настройки.

Пару логин-пароль необходимо прописывать через двоеточие и без пробелов. Т.е. если Ваш логин [email protected] и пароль 15101510ioioio, то пара будет выглядеть вот так: my_login:15101510ioioio

Обратите внимание - прописывать в логине @yandex.ru нет необходимости.

Данная настройка является единоразовым мероприятием.

Сразу проясним пару моментов:

  • сколько проектов создавать для каждого сайта - решать только Вам
  • без создания проекта программа работать не будет.

Теперь давайте разбираться с функционалом.

Для сбора ключей из Яндекс.Wordstat на вкладке «Сбор данных» нажимаем на кнопку «Пакетный сбор слов из левой колонки Яндекс.Wordstat», вставляем список ранее подготовленных ключевых фраз, нажимаем «Начать сбор» и ждем его окончания. Минус у такого способа сбора только один - после окончания парсинга приходится вручную удалять ненужные ключи.

На выходе мы получаем таблицу с собранными из Wordstat ключевыми словами и базовой частотой показов.

Но мы-то с Вами помним, что можно еще задействовать кавычки и восклицательный знак, верно? Этим и займемся. Тем более что данный функционал в Слоёбе реализован.

Запускаем сбор частот в кавычках и наблюдаем за тем, как данные будут постепенно появляться в таблице.

Единственный минус состоит в том, что сбор данных производится через сервис Яндекс.Wordstat, а это значит, что даже на сбор частот по 100 ключам будет уходить достаточно много времени. Однако, эта проблема решена в Key Collector’е.

И еще одна функция, о которой хотелось бы рассказать - сбор поисковых подсказок. Для этого копируем список ранее спарсенных ключей в буфер обмена, нажимаем кнопку сбора поисковых подсказок, вставляем список, выбираем поисковые системы, с которых будет вестись сбор поисковых подсказок, нажимаем «Начать сбор» и ждем его окончания.

На выходе мы получаем расширенный список ключевых фраз.

Теперь переходим к «старшему брату» Словоёба - Key Collector’у.

Key Collector платный, но имеет гораздо более широкий функционал. Так что если Вы профессионально занимаетесь продвижением сайтов или маркетингом - Key Collector просто мастхэв, ибо Словоёба будет уже недостаточно. Если коротко, то Кей Коллектор умеет выполнять:

  • Парсить ключи из Wordstat*.
  • Парсить поисковые подсказки*.
  • Отсечка поисковых фраз по стоп-словам*.
  • Сортировка запросов по частоте*.
  • Выявление запросов-дублей.
  • Определение сезонных запросов.
  • Сбор статистики из Liveinternet.ru, «Метрика», Google Analytics, Google AdWords, «Директ», «Вконтакте» и другие.
  • Определение релевантных страниц по тому или иному запросу.

(знаком * отмечен функционал, имеющийся в Словоёбе)

Процесс сбора ключевых слов из Wordstat и сбор поисковых подсказок абсолютно идентичен тому, что реализован в Словоёбе. Однако, сбор частот реализован двумя способами - через Wordstat (как в Словоёбе) и через Директ. Через Директ сбор частот ускоряется в несколько раз.

Делается это следующим образом: нажимаем на кнопку Д (сокращение от «Директ», ставим галочку о заполнении колонок статистики Wordstat, проставляем галочки (при необходимости) о том, какую именно частоту мы хотим получить (базовую, в кавычках, или в кавычках и с восклицательными знаками», нажимаем «Получить данные» и ждем окончания сбора.

Сбор через данных Яндекс.Директ занимает гораздо меньше времени, чем через Wordstat. Однако, тут есть и один минус - статистика может быть собрана не по всем ключам (например, если ключевая фраза слишком длинная). Однако, этот минус компенсируется сбором данных из Wordstat.

Планировщик ключевых слов Google

Данный инструмент крайне полезен для сбора ядра с учетом нужд пользователей поисковой системы Google.

С помощью Планировщика ключевых слов Google можно найти новые запросы по запросам (как бы странно это ни звучало), и даже сайтам/тематикам. Ну а в качестве бонуса можно даже прогнозировать трафик и комбинировать новые поисковые запросы.

По имеющимся запросам статистику можно получить, выбрав соответствующую опцию на главной странице сервиса. При необходимости можно выбрать регион и минус-слова. Результат будет выведен в CSV-формате.

Как узнать семантическое ядро сайта конкурента

Конкуренты могут нам быть еще и друзьями, т.к. у них можно позаимствовать идеи по подбору ключевых слов. Практически по каждой странице можно получить список ключевых слов, под которые она оптимизирована, причем вручную.

Первый способ - изучить контент страницы, мета-теги Title, Description, H1 и KeyWords. Можно сделать всё вручную.

Второй способ - воспользоваться сервисами Advego или Istio. Для анализа конкретно взятых страниц этого вполне достаточно.

Если же требуется произвести комплексный анализ семантического ядра сайта, то имеет смысл воспользоваться более мощными инструментами:

  • SEMrush
  • Searchmetrics
  • SpyWords
  • Google Trends
  • Wordtracker
  • WordStream
  • Ubersuggest
  • Топвизор

Однако, приведенные выше инструменты больше подходят для тех, кто занимается профессиональным продвижением нескольких сайтов одновременно. «Для себя» даже ручного способа будет вполне достаточно (в крайнем случае - Advego).

Ошибки при составлении семантического ядра

Самая частая ошибка - очень маленькое семантическое ядро

Разумеется, если это какая-то узкоспециализированная ниша (например, ручное изготовление элитных музыкальных инструментов), то ключей при любом раскладе будет мало (сотня-полторы-две).

Чем больше семантическое ядро (но без «мусора») - тем лучше. В некоторых нишах семантическое ядро может состоять из нескольких… МИЛЛИОНОВ ключей.

Вторая ошибка - синонимайзинг. Точнее - его отсутствие

Вспомните пример с Анталией. Ведь в данном контексте «туры» и «путевки» - это одно и то же, но эти 2 списка ключей могут кардинально отличаться. «Стриппер» вполне могут искать по запросу «зачистка для проводов» или «инструмент для удаления изоляции».

Внизу поисковой выдачи у Google и Яндекса есть вот такой блок:

Именно там зачастую и можно подсмотреть синонимы.

Составление семантического ядра исключительно из ВЧ-запросов

Вспомните, что мы в начале поста говорили о низкочастотных запросах, и вопрос «а почему это ошибка?» у Вас больше не возникнет. Низкочастотные запросы как раз и будут приносить основную долю трафика.

«Мусор», т.е. нецелевые запросы

Необходимо удалить из собранного ядра все запросы, которые Вам не подходят. Если у Вас магазин сотовых телефонов, то для Вас запрос «продажа сотовых телефонов» будет целевым, а «ремонт сотовых телефонов» - мусорным. В случае с сервисным центром по ремонту сотовых телефонов все с точностью до наоборот: «ремонт сотовых телефонов» - целевой, а «продажа сотовых телефонов» - мусорный. Третий вариант - если у Вас магазин сотовых телефонов, к которому «прикреплен» сервисный центр, то оба запроса будут целевыми.

Еще раз - мусора в ядре быть не должно.

Отсутствие группировки запросов

Разбивать ядро на группы строго обязательно.

Во-первых, это позволит составить грамотную структуру сайта.

Во-вторых, не будет «ключевых конфликтов». Например, возьмем страницу, которая продвигается по запросам «купить наливной пол» и «купить ноутбук acer». Поисковая система может прийти в замешательство. В итоге будет провалено по обоим ключам. А вот по запросам «ноутбук hp 15-006 купить» и «ноутбук hp 15-006 цена» уже имеет смысл продвигать одну страницу. Более того, не просто «имеет смысл», а будет единственным правильным решением.

В-третьих, кластеризация позволит прикинуть сколько страниц еще нужно создать, чтоб ядро было охвачено полностью (а главное - нужно ли?).

Ошибки в разделении коммерческих и информационных запросов

Основная ошибка в том, что коммерческими могут оказаться и запросы, в которых нет слов «купить», «заказать», «доставка» и т.п.

Например, запрос «». Как определить, коммерческий это запрос, или информационный? Очень просто - смотрим поисковую выдачу.

Google нам говорит, что это коммерческий запрос, т.к. в выдаче у нас первые 3 позиции занимают документы со словом «купить», а на четвертой позиции хоть и расположились «отзывы», но взгляните на адрес - это достаточно известный интернет-магазин.

А вот с Яндексом все оказалось не так просто, т.к. в ТОП-5 у нас 3 страницы с обзорами/отзывами и 2 страницы с торговыми предложениями.

Тем не менее, данный запрос все-таки относится к коммерческим, т.к. коммерческие предложения есть и там, и там.

Однако, есть и инструмент для массовой проверки ключей на «коммерцию» - Semparser.

Подобрали «пустые» запросы

Частоты необходимо собирать и базовые, и в кавычках. Если частота в кавычках равна нулю - запрос лучше удалить, т.к. это пустышка. Нередко бывает даже так, что базовая частота превышает несколько тысяч показов в месяц, а частота в кавычках - нулевая. И сразу же конкретный пример - ключ «крем для кожи недорого». Базовая частота 1032 показа. Выглядит вкусно, правда?

Но весь вкус теряется, если пробить эту же фразу в кавычках:

Не все пользователи печатают без ошибок. Из-за них «кривые» ключевые запросы в базу и попадают. Включать их в семантические ядро бессмысленно, поскольку поисковые системы все равно перенаправляют пользователя на «исправленный» запрос.

И с Яндексом ровно то же самое.

Так что «кривые» запросы (даже если они высокочастотные) удаляем без сожаления.

Пример семантического ядра сайта

Теперь переходим от теории к практике. После сбора и кластеризации семантическое ядро должно выглядеть примерно вот так:

Итог

Что же нам требуется для составления семантического ядра?

  • хотя бы немного мышления бизнесмена (или хотя бы маркетолога)
  • хотя бы небольшие навыки оптимизатора.
  • важно уделить особое внимание структуре сайта
  • прикиньте, по каким запросам пользователи могут искать нужную им информацию
  • на основе «прикидок» собираете список наиболее подходящих запросов (Яндекс.Wordstat + Wordstat Assistant, Словоёб, Key Collector, Планировщик ключевых слов Google), частоты с учетом словоформ (без кавычек), а также без учета (в кавычках), удаляете «мусор».
  • собранные ключи необходимо сгруппировать, т.е. распределить по страницам сайта (даже если эти страницы еще не созданы).

Нет времени? Обращайтесь к нам, мы сами все за Вас сделаем!

Во многих веб-изданиях и публикациях говорится о важности семантического ядра.

Аналогичные тексты есть и на нашем сайте «Что Делать». При этом зачастую упоминается только общая теоретическая часть вопроса, тогда как практика остается непонятной.

Все опытные вебмастера твердят о том, что нужно составить основу для продвижения, но как использовать на практике, доступно объясняют лишь единицы. Чтобы снять завесу тайны с этого вопроса, мы и решили осветить практическую сторону использования семантического ядра.

Зачем нужно семантическое ядро

Это, в первую очередь, основа и план для дальнейшего наполнения и продвижения сайта. Семантическая основа, разделенная по структуре веб-ресурса, — это указатели на пути к планомерному и целенаправленному развитию площадки.

Если у вас имеется такая основа, вам не приходится думать над темой каждой следующей статьи, достаточно лишь следовать пунктам списка. С ядром раскрутка сайта движется намного быстрее. А продвижение приобретает ясность и прозрачность.

Как использовать семантическое ядро на практике

Для начала стоит уяснить, как вообще составляется семантическая основа. По сути, это список из ключевых фраз вашего будущего проекта, дополненная частотностью каждого запроса.

Собрать такую информацию не составит труда с помощью сервиса Яндекс Вордстат:

http://wordstat.yandex.ru/

или же любого другого специального сервиса или программы. При этом порядок действий будет следующим…

Как составить семантическое ядро на практике

1. Собирать в едином файле (Exel, Блокнот, Ворд) все запросы по вашей ключевой теме, взятые из данных статистики. Сюда же включить фразы «из головы», то есть логически допустимые фразы, морфологические варианты (как вы сами искали бы вашу тему) и даже варианты с опечатками!

2. Список семантических запросов сортируется по частоте. От запросов с максимальной частотой – к запросам с минимумом популярности.

3. Из семантической основы удаляются и вычищаются все мусорные запросы, которые не соответствуют тематике или направленности вашего сайта. К примеру, если вы бесплатно рассказываете людям о стиральных машинах, но не продаете их, не нужно использовать в ядре слова вроде:

  • «купить»
  • «оптом»
  • «доставка»
  • «заказать»
  • «дешево»
  • «видео» (если на сайте нет видеороликов)…

Смысл : нельзя вводить в заблуждение пользователей! В противном случае ваш сайт получит громадное количество отказов, что скажется на его рейтингах. И это важно!

4. Когда основной список очищен от лишних фраз и запросов, включает достаточное количество пунктов, можно использовать семантическое ядро на практике.

ВАЖНО : семантический список никогда не может считаться целиком готовым и завершенным. В любой тематике вам придется обновлять, и дополнять ядро новыми фразами и запросами, периодически отслеживая новшества и изменения.

ВАЖНО : от числа пунктов в списке будет зависеть количество статей будущего сайта. Следовательно, это скажется и на объемах нужного контента, на рабочем времени автора статей, на длительности наполнения ресурса.

Наложение семантического ядра на структуру сайта

Чтобы из всего полученного списка вышел толк, нужно распределить запросы (в зависимости от частоты) по структуре сайта. Назвать конкретные цифры здесь сложно, так как масштабы и разница частотности может оказаться весьма значительной для разных проектов.

Если, к примеру, за основу вы берете запрос с миллионной частотностью, даже фраза с 10 000 запрос покажется уже средненькой.

С другой стороны, когда ваш основной запрос – 10 000 частоты, среднечастотник составит порядка 5 000 запросов в месяц. Т.е. учитывается некая относительность:

«ВЧ – СР – НЧ» или «Максимум – Середина – Минимум»

Но в любом случае (даже визуально) вам нужно разделить все ядро на 3 категории:

  1. высокочастотные запросы (ВЧ — короткие фразы с максимальной частотой);
  2. низкочастотные запросы (НЧ — редко запрашиваемые фразы и словосочетания с малой частотой);
  3. среднечастотные запросы (СЧ — все средние запросы, оказавшиеся по середине вашего списка.

На следующем этапе подпирается 1 или несколько (максимум 3) запроса для главной страницы. Эти фразы должны быть максимально высокой частоты. На главную помещаются высокочастотники!

Далее из общей логики семантического ядра стоит выделить несколько главных ключевых фраз, из которых будут созданы разделы (категории) сайта. Здесь вы могли бы также использовать высокочастотники с меньшей частотой, чем основной, или лучше – среднечастотные запросы.

Низкочастотные оставшиеся фразы сортируются на категории (под созданные разделы и категории), превращаются в темы для будущих публикаций сайта. Но это проще понять на примере.

ПРИМЕР

Наглядный пример использования семантического ядра на практике:

1. Главная страница (ВЧ) – высокочастотный запрос — «продвижение сайта».

2. Страницы разделов (СЧ) – «продвижение сайта на заказ», «самостоятельное продвижение», «продвижение сайта статьями», «раскрутка сайта ссылками». Или же просто (если адаптировать для меню):

Раздел №1 — «на заказ»
Раздел №2 – «самостоятельно»
Раздел №3 – «статейное продвижение»
Раздел №4 – «ссылочное продвижение»

Все это очень похоже на структуру данных в вашем компьюете: логический диск (главная) — папки (разделы) — файлы (статьи).

3. Страницы статей и публикаций (НЧ) – «быстрая раскрутка сайта бесплатно», «продвижение на заказ дешево», «как продвигать сайт статьями», «раскрутка проекта в Интернете на заказ», «недорогое продвижение сайта ссылками» и т.д.

В этом списке у вас окажется самое большое количество разнообразнейших фраз и словосочетаний, по которым вы должны будете создавать дальнейшие публикации сайта.

Как использовать готовое семантическое ядро на практике

Использование списка запросов – это внутренняя оптимизация контента. Секрет в том, чтобы оптимизировать (подстроить) каждую страничку веб-ресурса под соответствующий пункт ядра. То есть, фактически, вы берете ключевую фразу и пишете под нее максимально релевантную статью и страницу. Оценить же релевантность вам поможет специальный сервис, доступный по ссылке:

Чтобы иметь хоть какие-то ориентиры в вашей SEO работе, лучше предварительно проверить релевантность сайтов из ТОП выдачи по конкретным запросам.

Например, если вы пишите текст по низкочастотной фразе «недорогое продвижение сайта ссылками», то сначала просто введите ее в поиске и оцените ТОП-5 сайтов в выдаче с помощью сервиса оценки релевантности.

Если сервис показал, что сайты из ТОП-5 по запросу «недорогое продвижение сайта ссылками» имеют релевантность от 18% до 30%, то вам нужно ориентироваться на эти же процентные показатели. Еще лучше – создать уникальный текст с ключевыми словами и релевантностью примерно 35-50%. Немного обойдя конкурентов на данном этапе, вы заложите неплохую основу дальнейшего продвижения.

ВАЖНО : использование семантического ядра на практике подразумевает, что одно фразе соответствует одна уникальная страница ресурса. Максимум здесь – это 2 запроса на одну статью.

Чем полнее раскроется семантическое ядро, тем информативней будет ваш проект. Но если вы не готовы к длительной работе и тысячам новых статей, не нужно браться за широкие тематические ниши. Даже узкая специализированная область, раскрытая на 100%, принесет больше трафика, чем недоделанный большой сайт.

Например, вы могли бы взять за основу сайта не высокочастотный ключ «продвижение сайта» (где колоссальная конкуренция), а фразу с частотой поменьше и специализацией поуже – «статейное продвижение сайта» или «продвижение ссылками», но раскрыть эту тему по максимуму во всех статьях виртуальной площадки! Эффект при этом будет выше.

Полезные сведения на будущее

Дальнейшее использование вашего семантического ядра на практике будет заключаться лишь в том, чтобы:

  • корректировать и обновлять список;
  • писать оптимизированные тексты с высокой релевантностью и уникальностью;
  • публиковать статьи на сайте (1 запрос – 1 статья);
  • повышать полезность материала (править уже готовые тексты);
  • улучшать качество статей и сайта в целом, следить за конкурентами;
  • помечать в списке ядра те запросы, которые уже использовались;
  • дополнять оптимизацию прочими внутренними и внешними факторами (ссылки, юзабилити, дизайн, полезности, видео, онлайн инструменты помощи).

Примечание: все вышесказанное – это очень упрощенная версия мероприятий. Фактически же на основе ядра могут создаваться и подуровни, и структуры глубокой вложенности, и ответвления на форумы, блоги, чаты. Но принцип всегда будет схожим.

ПОДАРОК: полезный инструмент для сбора ядра в браузере Мозилла ФаерФокс —


Семантическое ядро сайта представляет собой ключевые слова (запросы) , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.


Семантическое ядро сайта составляется обычно в несколько этапов:

  1. Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
  2. Расширение семантического ядра за счет ассоциативных запросов
  3. Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
  4. Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
  5. И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.

Подбор поисковых запросов и проверка частотности

Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:

  • Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
  • Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.

Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.

Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов статистики Яндекса и Гугла .

На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:


Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.

Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.

Анализ запросов, удаление "пустышек"

Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.

Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:


Вы видите 881 показов в месяц, но если точнее определить:


Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.

К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.


Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.

Распределение запросов по страницам

После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.

Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.

Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.

Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.

Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!

Если вам знакома боль от «нелюбви» поисковиков к страницам вашего интернет-магазина, прочитайте эту статью. Я расскажу о пути к повышению видимости сайта, а точнее, о его первом этапе — сборе ключевых слов и составлении семантического ядра . Об алгоритме его создания и инструментах, которые при этом используются.

Зачем составлять семантическое ядро?

Для повышения видимости страниц сайта. Cделать так, чтобы поисковые роботы Яндекса и Google начали находить по запросам пользователей страницы именно вашего сайта. Безусловно, сбор ключевых слов (составление семантики) — первый шаг к этой цели. Дальше набрасывается условный «скелет» для распределения ключевых слов по разным посадочным страницам. А затем уже пишутся и внедряются статьи/метатеги.

Кстати, на просторах интернета можно найти множество определений семантического ядра.

1. «Семантическое ядро — упорядоченный набор поисковых слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товар или услугу, предлагаемые сайтом». Википедия .

Для сбора семантики конкурентов в Serpstat введите один из ключевых запросов, выберите регион, нажмите «Поиск» и перейдите в категорию «Анализ ключевых фраз». Затем выберите «SEO-анализ» и нажмите «Подбор фраз». Экспортируйте результаты:

2.3. Используем Key Collector/Словоёб для создания семантического ядра

Если нужно составить семантическое ядро для крупного интернет-магазина, без Key Collector не обойтись. Но если вы новичок, то удобней использовать бесплатный инструмент — Словоёб (пусть это название вас не пугает). Скачайте программу, а в настройках Яндекс.Директ укажите логин и пароль от своей Яндекс.Почты:
Создайте новый проект. Во вкладке «Данные» выберите функцию «Добавить фразы». Выберите регион и введите запросы, которые вы получили ранее:
Совет: создавайте отдельный проект под каждый новый домен, а под каждую категорию/посадочную страницу делайте отдельную группу. Например: Теперь соберите семантику из Яндекс.Вордстата. Откройте вкладку «Сбор данных» — «Пакетный сбор слов из левой колонки Yandex.Wordstat». В открывшемся окошке выберите галочку «Не добавлять фразы, если они уже есть в любых других группах». Впишите несколько самых популярных среди пользователей (высокочастотных) фраз и нажмите «Начать сбор»:

Кстати, для больших проектов в Key Collector можно собрать статистику из сервисов анализа конкурентов SEMrush, SpyWords, Serpstat (ex. Prodvigator) и других дополнительных источников.