02 Ноябрь

Фильтры Гугла или Google Penguin 3.0 в действии

0060_logo17 октября поисковая система Гугл запустила новый алгоритм Penguin 3.0, который почему то многие считаю фильтром. Кстати с момента запуска прошлой версии алгоритма прошло больше года. Напомню, что пингвин 2.1 был запущен 4 октября 2013 года. Новый алгоритм почему то вызвал шквал вопросов, как быть, что делать, куда бежать. Не знаю почему, но прошлый, более мягкий алгоритм обошел меня стороной. Вопросов по нему почти не было, как не было и паники. Сегодня поговорим о том, в чем разница между фильтрами и алгоритмами, как жить в условиях Пингвина 3.0 и что делать, если ваш сайт попал под фильтр.

Начнем, пожалуй с азов. Поисковая система Гугл может с достаточно высокой вероятностью отличить купленную ссылку от поставленной естественным путем. Надо понимать, что умеет она это определять давно, очень давно, но почему то не фильтрует сайты, которые покупают ссылки. Почему? Да потому что зафильтровав доноров, реципиентов, ссылки, у поисковой системы ухудшаются метрики качества поиска. Поэтому санкции за ссылочный спам они вводят плавно. Но с каждым выпуском нового алгоритма гайки закручиваются все сильнее. То есть фильтры могут оставаться неизменными на протяжении многих лет, а вот алгоритмы, (параметры если хотите), по которым накладываются фильтры, меняются.

Фильтры Гугла

Давайте вспомним, какие у Гугла есть распространенные фильтры, за что они накладываются и как со всем этим бороться. Хочу отметить, что список фильтров не претендует на полноту и верность в названиях, но отражает суть основных направлений фильтрации сайтов. Поехали:

  1. Песочница Гугла или SandBox – фильтр, про который почему то все забывают, но он до сих пор существует. Общепринято мнение, что накладывается на молодые сайты, проходит со временем. Но, увы, это не всегда так. В песочнице Гугла могут находиться и старые сайты, которые не развиваются.
    Лечение: Чтобы выйти из песочницы вам необходимо показывать Гуглу, что ваш сайт растет, развивается, наполняется контентом и обрастает ссылочной массой. Обычно время выхода из песка Гугла составляет порядка трех месяцев.
  2. Фильтр Возраст домена (Domain Name Age). Суть в том, что пока сайту нету года, у Гугла нет причин доверять вашему сайту.
    Как лечилось: подклеивался старый домен или просто ждали, когда пройдет время и поисковик начнет доверять сайту.
  3. Сопли (Google Supplemental Results), ваш сайт попадает в дополнительные результаты поиска, то есть по умолчанию часть страниц из индекса не показывается пользователям. Фильтр накладывается за неуникальный контент. Чаще всего фильтр накладывается за копированный неуникальный контент, использование шаблонных движков, дизайнов с малым количеством уникальной информации на странице.
    Как лечить? Все банально: занимайтесь уникализацией контента и будет вам счастье.
    Есть еще минимум 2 фильтра в эту тему: Google Omitted Results и Googe Duplicate Content. По мне, это то же самое, только вид сбоку. Какая нам разница: просел сайт или попал в доп.результаты выдачи? Факт остается фактом: трафик потеряли, надо что то делать.
  4. Фильтр за битые ссылки, встречается крайне редко, но мне довелось один раз его поймать. История как всегда печальная: клиент переехал на новый движок, в контенте абсолютная адресация ссылок, контента море, редиректы не настроены. В результате более 5000 битых ссылок и просадка трафика. Важно, что сайт переиндексировался, но трафика не было. Пока не полечили и в панели вебмастера не пропали сообщения об ошибках, трафик не восстановился.
    Т.о. лечение простое: удалить все битые ссылки и подождать переиндексации.
  5. Фильтр за спам в ссылках, он же Google Bombing. Да-да.. это тот самый фильтр, который накладывается за одинаковые анкоры.
    Как лечить? Разбавлять ссылки непрямыми вхождениями, безанкоркой и т.п. Еще можно сообщить через Дисалоу Линкс, что мы не виноваты и отказаться от части ссылок.
  6. Ссылочный взрыв. Он существует не только Яндексе, но и в Гугле, только называется по-модному: To Many Links at Once. Суть та же: быстрый прирост ссылочной массы негативно сказывается на позициях сайта, так делать не стоит. Но если уж случилось, то все ссылки придется снимать, т.к. для сайта они не дают никакого веса вообще. Интересным моментом является то, что многие оптимизаторы не советуют снимать ссылки, т.к. это сигнал Гуглу. Ну решать, конечно, вам. Сигнал Гугл получил когда вы ссылки покупали, а сейчас вы уже под фильтром, больше никаких дополнительных сигналов не надо :)
    Лечение: физическое удаление ссылок!
  7. Фильтр за соседей. На мой взгляд, в текущем алгоритме – это очень важный фильтр, на который надо обратить максимум внимания. Правильное название: Co-Citation Filter. Это фильтр, который накладывается за то, что ссылки на ваш сайт стоят с плохих, заспамленных мест!!! То есть если даже на вас стоят только безанкорные ссылки, все равно вы рискуете попасть под санкции, в случае если используете заспамленные доноры!
    Как лечить: намой взгляд, проще всего покаяться, слив ссылки в Дисалоу Линкс.
  8. Еще есть ряд фильтров за чернуху типа клоакинга, дорвеев, хитрых редиректов. Сайт по всем запросам выпадает из топа на несколько десятков позиций вниз. Лечение здесь бесполезно, в этом случае надо лечить голову.

В сухом остатке получаем следующее: человек кричит: ”все пропало, мой сайт попал под пингвин”, а на самом деле, сайт попал под фильтр Bombing, просто в предыдущей версии алгоритма поисковой системы критерии попадания под этот фильтр были более мягкими.

Внимательный читатель скажет: ”какая разница, как называть фильтр пингвин или бомбинг, что вы мне пудрите мозги, у меня сайт под фильтром, вы скажите что делать”. И будет отчасти прав. Всю эту песню я завел к тому, что хочу сказать одну простую мысль: велика вероятность того, что методы выхода из под фильтров в новых алгоритмах остались прежними!

Теперь немного практики, после введения Google Penguin 3.0 прошло уже 2 недели, можно подвести некоторые итоги.

Сразу говорю: я не считаю свою выборку репрезентативной, анализ пары сотен сайтов не может сравниться с размерами рунета. Я лишь расскажу, что было сделано, к чему привело, какие вообще я сделал выводы по новому алгоритму. И еще: никого ни в чем убеждать или переубеждать не собираюсь.

Практика: что мы видим на основе анализа сайтов.

  1. Первое, что мне показалось интересным, что под фильтры с введением нового алгоритма у нас попало очень мало сайтов. Можно сказать, что количество сайтов залетевших под фильтры меньше 3%.
  2. Сайты, у которых замечена серьезная просадка по трафику, не получили ручных фильтров, все работает в автоматическом режиме. И на мой взгляд, это не есть хорошо. Многие считают, что ручные санкции хуже автоматических. Я с этим не согласен, т.к. при ручных санкциях четко видно, когда с тебя сняли фильтр. То есть можно действовать по тривиальному плану: манипуляции с сайтом (ссылочной массой), замаливание грехов, оценка результата. Если не прокатило, то итерация повторяется. В автоматическом режиме после того, как внесли какие-то изменения в свою стратегию, нужно сидеть и ждать. Причем не понятно, дождешься ли ты чего-нибудь и вообще, когда можно заканчивать надеяться и верить.
  3. Трафик потеряли не только сайты, у которых переспам анкор файла. Под фильтр залетели и те, которые практически не имели прямых вхождений анкоров и разбавленных, кстати, тоже. Это архи важно на мой взгляд. То есть если в предыдущей версии алгоритма превалировали фильтры за спам в анкорах, то в текущей версии на пьедестал выходит фильтр за плохое соседство. Именно в этом направлении мы и стали копать.

Кейс: восстановление трафика после Пингвина 3.0

Что мы имели: неплохой трафик в узкой нише, порядка 450 человек в день с Гугла. 17-18 октября получили просадку трафика до 100 человек в день.

Важно, что процент ссылок, содержащих в тексте ключевые слова был меньше 10, а то и 5%. Но это не помешало сайту потерять трафик.

Было принято решение выгрузить всю ссылочную массу в дисалоу линкс. Предположение было такое: если ссылки для сайта перестали работать, то хуже не станет. Если это фильтр за ссылки и он будет снят, то должно стать лучше, т.к. не будет штрафов при формировании выдачи.

Прошло не так много времени, как сайт начал восстанавливать трафик, и практически отыграл 100 переходов в день:
0016_01
Данный кейс нам говорит что:

  1. Фильтр на сайт был наложен, причем кол-во спамных анкоров было крайне мало.
  2. Фильтр можно снять, сайт отпустило.
  3. Скорее всего мы сняли не только ссылки, из-за которых попали под фильтр, но и вполне рабочие. Отсюда можно сделать предположение: трафик не восстановится до прежнего объема.
  4. Скорее всего Гугл делит ссылки на уровне доноров на спамные и нормальные. Если поставить ссылку с прямым вхождением ключевика в анкор с донора, который никогда не продавал ссылки в большом количестве, то ссылка будет нормально работать!

Вывод: надо учиться смотреть на доноры глазами Гугла, то есть не покупать ссылки на заспамленных площадках. Жаль, что задача эта совсем нетривиальная.

Эксперимент: физическое снятие ссылок в Пингвине 3.0.

Есть пациент, у которого просел трафик после выкладки нового алгоритма Гугла. С пациентом все было понятно: 70% точных вхождений запросов в тексты ссылок. То есть налицо мероприятия, которые приведут к выходу из под фильтра: засунуть ссылки в Дисалоу Линкс и будет счастье. Уверенно говорю, т.к. эта методика срабатывала на предыдущих версиях алгоритма. Непонятно, почему сайт раньше не залетел под фильтры.

Но сделали мы совсем другое. Мы просто сняли все эти ссылки физически и стали ждать. Прошло 10 дней, результатов ноль, то есть сайт не восстановил трафик и позиции.

По идее, сайт все же должен выйти из под фильтра, но вопрос когда. Эксперимент продолжается, наблюдаем, делаем выводы.

Полезные ссылки по теме

  • http://devaka.ru/ — Сергей Кокшаров еще в 2012 году подробно писал про данный анти-спам алгоритм. Имхо, многое актуально и по сей день.
  • http://ktonanovenkogo.ru/ — пошаговое руководство по снятию санкций Гугла. Статья тоже старая, но весьма актуальная.
  • http://optimizatorsha.ru/ — хоть что то про новый алгоритм Гугла, а не просто вода. Некоторые моменты спорны, но прочесть все же рекомендую.
  • http://moz.com/ — История обновления алгоритмов Гугла с 2000 года до наших дней.
  • https://www.google.com/ – Инструмент отклонения ссылок (для тех, кто совсем недавно в теме).

Если у Вас есть интересные наблюдения, не стесняйтесь, делитесь в комментариях! Обсудим.

Быстробот Яндекса или спамеры со Sports.ru спалились!Дубли страниц сайта, или минус 3 000 000 рублей прибыли
Пиастры за контекст на бутылку рома – отчет № 2Усиление ссылок трафиком
tw
Подпишись на новости:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Можно использовать следующие HTML-теги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>