Пиастры — Составление семантического ядра
Предыдущая часть мануала
Сегодня будем говорить про самое ответственное после выбора ниши. Будем собирать запросы, по которым наш сайт должен занять лидирующие позиции и собирать трафик с поисковых систем. Задача непростая, про нее написано огромное количество материалов в сети. Теме не менее нам надо подробно разобраться, как оптимально делать этот пласт работы.
Стандартные методы подбора запросов
Как я уже сказал, в сети есть огромное количество материалов по теме. Я не хочу останавливаться подробно на тривиальных методах, но перечислить их все же надо.
Какие есть методы:
- Яндекс Директ – классика жанра. проводим мозговой штурм, засовываем запросы в сервис с целью расширения списка запросов, чистим от мусора, смотрим правый столбец, засовываем новые запросы в сервис снова. И так до бесконечности. Очень трудозатратный метод.
- База Пастухова, хороший инструмент, стоит своих денег, в данный момент русскоязычная база запросов содержит более миллиарда слов.
- Поисковые подсказки, интересный метод, который руками практически нереализуем. Но есть сервисы: http://keywordshitter.com/, http://keywordtool.io/ru(подсказки из гугла, ютуба, бинга, апп сторе) и т.п.
- Отдельно надо выделить инструмент КейКоллектор, программа, которая умеет очень многое и облегчает жизнь огромному количеству сеошников.
Зачем изобретать велосипед?
Я этот вопрос задаю часто, особенно часто, когда вспоминаю фильм Пираты кремниевой долины. Если кто не смотрел, то вкратце суть такая. Богатым, успешным, знаменитым становится не тот, кто придумывает что-то новое, а тот, кто вовремя подсуетился и смог это выгодно масштабировать/продать. Из фильма вы узнаете, что Билл Гейтс, например, продал свою первую операционку, когда не было ни одной строчки кода, а по факту Dos он купил у неизвестного программиста за 50к бакинских рублей.
Еще интересный момент. То, к чему мы так привыкли – визуальные элементы интерфейсов, кнопки, мышки и т.п. Все это придумала компания Xerox, но не смогла продать IBM. За то Apple успешно своровала все это у Xerox, а затем МикроМягкие сперли все это у Apple и продали все красиво под видом Windows.
Внимание вопрос: где сейчас Ксерокс, кто-нибудь помнит того программиста, который написал операционную систему Dos? Так что не стоит думать, что вы самые умные и быстрые, не надо делать работу, которую уже за вас кто-то проделал. Есть варианты скопировать, о них и поговорим, т.к. лень у нас в крови.
Открытые источники статистики
Вроде бы очевидные вещи, но многие до конца не понимают, что делать с богатством, которое нам предоставляет сервис топ.майл.ру. Объясняю на пальцах. Идем в рейтинг, например, в раздел Рейтинг > Деловой мир > Электронная коммерция, ищем интересные сайты с открытой статистикой:
На самом деле искать сайты надо на этапе подбора потенциальных ниш.
Я для примера выбрал тему с высокими бидами, стратегии Форекс, нашел сайт strategy4you.ru, с трафиком более 1000 человек в день и открытой статистикой.
Идем в статистику, выбираем интервал отображения статистики Месяц, берем предыдущий полный месяц:
Далее в левом боковом меню выбираем раздел Входящий трафик, подраздел Поисковые фразы:
Опускаемся вниз страницы, видим, что мы нарвались на кладезь информации, т.к. список содержит более 2 700 фраз, по которым пришли реальные посетители на сайт в феврале. Нажимаем на ссылку экспортировать в Excel.
В открытом файле видим небольшую проблемку: экспортировался не весь список, а только те фразы, которые показываются на странице. Но для нас это не беда, пройдемся по страницам и потом объединим файлы.
Итоговый файл надо почистить от запросов, которые вы считаете левыми. Думаю, с этим вы сами справитесь.
Что делать со списком дальше? Для полноценного ядра нам необходимо две вещи: суп и хлеб. Шучу! Нам необходимы 2 вещи:
- Частота запросов,
- Группировка запросов по страницам.
Сначала будем разбираться с частотой. Идем в Я.Директ, авторизуемся, переходим в раздел прогноз бюджета:
Вставляем наш список, система будет ругаться, что много данных, но не стоит на это обращать внимание, работать от этого она хуже не станет. Кликаем на кнопку Посчитать.
Следующий шаг, поставить галку в указанном на картинке месте:
Спускаемся вниз страницы, экспортируем данные в Excel:
Частоты у нас есть, осталось сгруппировать. Кстати, хороший вопрос: а что делать с запросами с нулевой частотой? Я бы их не стал удалять, а отложил. Позже они нам могут очень понадобиться!
Идем в Сеопульт, авторизуемся, создаем новый проект, прописываем адрес нашего сайта:
Добавляем запросы списком:
Нажимаем Далее, ждем когда система все обсчитает. Экспортируем данные в Excel:
Объединяем все в одну таблицу: запросы, частоты, релевантные страницы:
Получается весьма неплохо, а главное, быстро! Дальше вопросов возникать не должно. С ядром можно работать уже руками и головой, больше автоматизировать здесь нечего.
Анализ оптимизации конкурентов
Вторым неочевидным, но простым методом является анализ оптимизации ключевых тегов страниц конкурентов. То есть задумка проста:
- Получаем список страниц сайта конкурента.
- Отбираем те, которые являются контентными, то есть содержат информационные статьи.
- Анализируем титлы, то есть выясняем под какие запросы страница оптимизирована.
- Запросы расширяем, пробиваем частоты.
Итак, нам понадобится программа, которая называется Xenu (найдете сами, не проблема), она умеет сканировать сайты, почти как бот поисковой системы.
Запускаем Xenu, идем в меню File, New, вводим адрес сайта (конкурента, которого мы нашли при выборе ниши), снимаем галочку Check external links, если такая стоит, нажимает Ok.
Если конкурент большой, то ждать придется долго, поэтому я сканирую данные заранее, в процессе анализа ниш. Бывает, что Xenu не выключается неделями на нескольких компьютерах.
После сканирования сортируем данные по Type, в результате получится что-то типа вот такого:
Следующий наш шаг, понять из титлов, какие главные запросы используются конкурентом в статье. Обычно это 1-3 запроса, которые мы можем расширить элементарно, забивая их в директ и очищая от мусора. Работа рутинная, практически не требующая интеллектуального труда. Получаем таблицу, на основе которой будем делать задания копирайтерам:
Базы данных агрегаторов
Скоро исполнится 10 лет, как в рунете появились ссылочные биржи с нормальным функционалом для людей. За все время работы ими накоплена серьезная статистика как по поисковым запросам, так и по видимости определенных сайтов по ним.
Этот метод мне очень симпатичен, хотя его точность хуже по сравнению с предыдущим. Но за то здесь практически ничего не надо делать руками.
Итак, регистрируемся в Сапе.Визард, если еще этого не сделали. Создаем новый проект, вводим адрес сайта конкурента, которого будем анализировать. Я возьму денежную тему, то есть кредиты и сайт буду смотреть http://lebedev-lubimov.ru/. Сайт мне нравится своей основательностью, молодцы создатели, зарабатывают кругом где только можно!
Следующим шагом нам надо заставить систему порыться у себя в базе и найти запросы, ко которым сайт имеет хоть какую-то видимость:
Выбираем все и нажимаем заветную кнопку Далее, которая запускает волшебный механизм обработки ядра запросов.
Система может достаточно долго обсчитывать данные, подождем, оно того стоит. В нашем примере мы получили ядро порядка 1400 запросов. Экспортируем его в Excel.
Получилась золотая таблица: запросы, релевантные страницы, геозависимость, частоты, бюджет на ссылки. На данный момент нам нужно отсортировать список по релевантным страницам, скрыть пока не нужные поля. Все: ядро готово!
Наверное, можно было бы на этом остановиться, но все же стоит еще немного рассказать фишек.
Сбор ядра на автопилоте
Данная часть посвящена тем, кто умеет программировать, остальным информация будет бесполезна.
Честно говоря, я не знаю, есть ли API у Визард.Сапе, наверное, есть хотя бы для избранных пользователей. Но нам не обязательно. Процессы, которые мы разбирали в данном опусе вполне поддаются автоматизации.
Этапы сборы семантики:
- подбор широкого ядра запросов,
- подбор релевантных страниц,
- проверка актуальных частот.
Подробнее по каждому этапу:
- Сбор семантики для конкретного сайта: используем API Мегаиндекса, метод siteAnalyze. На выходе получите что-то типа: test siteAnalyze.
- Далее используем Я.ХМЛ для подбора релевантных страниц. Соответственно список сортируем, чтобы добиться группировки по урлам. На выходе получаем разбитое семантическое ядро по страницам.
- Далее надо пробить частоты по собранному ядру. Для этого можно опять использовать API Мегаиндекса, методы: раз, два, три
Итого: готовое ядро в один клик за одну минуту 😉
На этом сегодня все! Делаем ядра для сайтов в рамках домашнего задания!
<< Предыдущая часть мануала Следующая часть мануала >>>
![]() | ![]() |
![]() | ![]() |
