22 Март

Пиастры — Составление семантического ядра

Предыдущая часть мануала
x0024_logoСегодня будем говорить про самое ответственное после выбора ниши. Будем собирать запросы, по которым наш сайт должен занять лидирующие позиции и собирать трафик с поисковых систем. Задача непростая, про нее написано огромное количество материалов в сети. Теме не менее нам надо подробно разобраться, как оптимально делать этот пласт работы.

Стандартные методы подбора запросов

Как я уже сказал, в сети есть огромное количество материалов по теме. Я не хочу останавливаться подробно на тривиальных методах, но перечислить их все же надо.
Какие есть методы:

  • Яндекс Директ – классика жанра. проводим мозговой штурм, засовываем запросы в сервис с целью расширения списка запросов, чистим от мусора, смотрим правый столбец, засовываем новые запросы в сервис снова. И так до бесконечности. Очень трудозатратный метод.
  • База Пастухова, хороший инструмент, стоит своих денег, в данный момент русскоязычная база запросов содержит более миллиарда слов.
  • Поисковые подсказки, интересный метод, который руками практически нереализуем. Но есть сервисы: http://keywordshitter.com/, http://keywordtool.io/ru(подсказки из гугла, ютуба, бинга, апп сторе) и т.п.
  • Отдельно надо выделить инструмент КейКоллектор, программа, которая умеет очень многое и облегчает жизнь огромному количеству сеошников.

Зачем изобретать велосипед?

Я этот вопрос задаю часто, особенно часто, когда вспоминаю фильм Пираты кремниевой долины. Если кто не смотрел, то вкратце суть такая. Богатым, успешным, знаменитым становится не тот, кто придумывает что-то новое, а тот, кто вовремя подсуетился и смог это выгодно масштабировать/продать. Из фильма вы узнаете, что Билл Гейтс, например, продал свою первую операционку, когда не было ни одной строчки кода, а по факту Dos он купил у неизвестного программиста за 50к бакинских рублей.

Еще интересный момент. То, к чему мы так привыкли – визуальные элементы интерфейсов, кнопки, мышки и т.п. Все это придумала компания Xerox, но не смогла продать IBM. За то Apple успешно своровала все это у Xerox, а затем МикроМягкие сперли все это у Apple и продали все красиво под видом Windows.

Внимание вопрос: где сейчас Ксерокс, кто-нибудь помнит того программиста, который написал операционную систему Dos? Так что не стоит думать, что вы самые умные и быстрые, не надо делать работу, которую уже за вас кто-то проделал. Есть варианты скопировать, о них и поговорим, т.к. лень у нас в крови.

Открытые источники статистики

Вроде бы очевидные вещи, но многие до конца не понимают, что делать с богатством, которое нам предоставляет сервис топ.майл.ру. Объясняю на пальцах. Идем в рейтинг, например, в раздел Рейтинг > Деловой мир > Электронная коммерция, ищем интересные сайты с открытой статистикой:

0024_01

На самом деле искать сайты надо на этапе подбора потенциальных ниш.

Я для примера выбрал тему с высокими бидами, стратегии Форекс, нашел сайт strategy4you.ru, с трафиком более 1000 человек в день и открытой статистикой.

Идем в статистику, выбираем интервал отображения статистики Месяц, берем предыдущий полный месяц:

0024_02

Далее в левом боковом меню выбираем раздел Входящий трафик, подраздел Поисковые фразы:

0024_03

Опускаемся вниз страницы, видим, что мы нарвались на кладезь информации, т.к. список содержит более 2 700 фраз, по которым пришли реальные посетители на сайт в феврале. Нажимаем на ссылку экспортировать в Excel.

0024_05

В открытом файле видим небольшую проблемку: экспортировался не весь список, а только те фразы, которые показываются на странице. Но для нас это не беда, пройдемся по страницам и потом объединим файлы.

Итоговый файл надо почистить от запросов, которые вы считаете левыми. Думаю, с этим вы сами справитесь.

Что делать со списком дальше? Для полноценного ядра нам необходимо две вещи: суп и хлеб. Шучу! Нам необходимы 2 вещи:

  1. Частота запросов,
  2. Группировка запросов по страницам.

Сначала будем разбираться с частотой. Идем в Я.Директ, авторизуемся, переходим в раздел прогноз бюджета:

0024_06

Вставляем наш список, система будет ругаться, что много данных, но не стоит на это обращать внимание, работать от этого она хуже не станет. Кликаем на кнопку Посчитать.

0024_07

Следующий шаг, поставить галку в указанном на картинке месте:

0024_08

Спускаемся вниз страницы, экспортируем данные в Excel:

0024_09

Частоты у нас есть, осталось сгруппировать. Кстати, хороший вопрос: а что делать с запросами с нулевой частотой? Я бы их не стал удалять, а отложил. Позже они нам могут очень понадобиться!

Идем в Сеопульт, авторизуемся, создаем новый проект, прописываем адрес нашего сайта:

0024_10

Добавляем запросы списком:

0024_11

Нажимаем Далее, ждем когда система все обсчитает. Экспортируем данные в Excel:

0024_12

Объединяем все в одну таблицу: запросы, частоты, релевантные страницы:

0024_13

Получается весьма неплохо, а главное, быстро! Дальше вопросов возникать не должно. С ядром можно работать уже руками и головой, больше автоматизировать здесь нечего.

Анализ оптимизации конкурентов

Вторым неочевидным, но простым методом является анализ оптимизации ключевых тегов страниц конкурентов. То есть задумка проста:

  1. Получаем список страниц сайта конкурента.
  2. Отбираем те, которые являются контентными, то есть содержат информационные статьи.
  3. Анализируем титлы, то есть выясняем под какие запросы страница оптимизирована.
  4. Запросы расширяем, пробиваем частоты.

Итак, нам понадобится программа, которая называется Xenu (найдете сами, не проблема), она умеет сканировать сайты, почти как бот поисковой системы.
Запускаем Xenu, идем в меню File, New, вводим адрес сайта (конкурента, которого мы нашли при выборе ниши), снимаем галочку Check external links, если такая стоит, нажимает Ok.

0024_14

Если конкурент большой, то ждать придется долго, поэтому я сканирую данные заранее, в процессе анализа ниш. Бывает, что Xenu не выключается неделями на нескольких компьютерах.

После сканирования сортируем данные по Type, в результате получится что-то типа вот такого:

0024_15

Следующий наш шаг, понять из титлов, какие главные запросы используются конкурентом в статье. Обычно это 1-3 запроса, которые мы можем расширить элементарно, забивая их в директ и очищая от мусора. Работа рутинная, практически не требующая интеллектуального труда. Получаем таблицу, на основе которой будем делать задания копирайтерам:

0024_16

Базы данных агрегаторов

Скоро исполнится 10 лет, как в рунете появились ссылочные биржи с нормальным функционалом для людей. За все время работы ими накоплена серьезная статистика как по поисковым запросам, так и по видимости определенных сайтов по ним.

Этот метод мне очень симпатичен, хотя его точность хуже по сравнению с предыдущим. Но за то здесь практически ничего не надо делать руками.

Итак, регистрируемся в Сапе.Визард, если еще этого не сделали. Создаем новый проект, вводим адрес сайта конкурента, которого будем анализировать. Я возьму денежную тему, то есть кредиты и сайт буду смотреть http://lebedev-lubimov.ru/. Сайт мне нравится своей основательностью, молодцы создатели, зарабатывают кругом где только можно!

0024_17

Следующим шагом нам надо заставить систему порыться у себя в базе и найти запросы, ко которым сайт имеет хоть какую-то видимость:

0024_18

Выбираем все и нажимаем заветную кнопку Далее, которая запускает волшебный механизм обработки ядра запросов.

0024_19

Система может достаточно долго обсчитывать данные, подождем, оно того стоит. В нашем примере мы получили ядро порядка 1400 запросов. Экспортируем его в Excel.

0024_20

Получилась золотая таблица: запросы, релевантные страницы, геозависимость, частоты, бюджет на ссылки. На данный момент нам нужно отсортировать список по релевантным страницам, скрыть пока не нужные поля. Все: ядро готово!

0024_21

Наверное, можно было бы на этом остановиться, но все же стоит еще немного рассказать фишек.

Сбор ядра на автопилоте

Данная часть посвящена тем, кто умеет программировать, остальным информация будет бесполезна.

Честно говоря, я не знаю, есть ли API у Визард.Сапе, наверное, есть хотя бы для избранных пользователей. Но нам не обязательно. Процессы, которые мы разбирали в данном опусе вполне поддаются автоматизации.

Этапы сборы семантики:

  1. подбор широкого ядра запросов,
  2. подбор релевантных страниц,
  3. проверка актуальных частот.

Подробнее по каждому этапу:

  1. Сбор семантики для конкретного сайта: используем API Мегаиндекса, метод siteAnalyze. На выходе получите что-то типа: test siteAnalyze.
  2. Далее используем Я.ХМЛ для подбора релевантных страниц. Соответственно список сортируем, чтобы добиться группировки по урлам. На выходе получаем разбитое семантическое ядро по страницам.
  3. Далее надо пробить частоты по собранному ядру. Для этого можно опять использовать API Мегаиндекса, методы: раз, два, три

Итого: готовое ядро в один клик за одну минуту 😉

На этом сегодня все! Делаем ядра для сайтов в рамках домашнего задания!

<< Предыдущая часть мануала Следующая часть мануала >>>

Пиастры - Создаем сайтПиастры - Выбор и оценка ниши
Пиастры - ВведениеПиастры за контекст на бутылку рома - финал марафона
tw
Подпишись на новости:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Можно использовать следующие HTML-теги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>