Краткий анализ изменений в SEO после запуска Палех (нового алгоритма Яндекс)

Прошло чуть меньше трех недель после запуска нового поискового алгоритма Яндекса «Палех». Для всех профессиональных сеошников это самое горячее время. Нужно разбираться с новым алгоритмом, искать к нему походы и перестраивать свои алгоритмы продвижения сайтов под новые условия.

Мы тоже не сидели на месте. Ниже я, что называется, палю тему 🙂 — рассказываю основные моменты, которые уже удалось достоверно установить. Я подчеркнул «достоверно», так как я не буду тут делиться слухами и «надежной информацией из первоисточника»: только то, что мы уже успели проверить на практике.

Итак.

yandex-seo

Как я уже писал в своем предыдущем посте про Палех, конкуренция в выдаче действительно выросла, а в некоторых нишах выросла значительно. Пользовательский фактор стал действительно еще более важен. Это, я думаю, всем понятно и без меня 🙂

Теперь приведу один факт, который нуждается в объяснении. После запуска Палеха со всех сайтов, которые находятся у нас на продвижении, Яндекс снял наложенные ранее санкции за накрутку ссылочного и даже за попытки манипуляции пользовательскими факторами. Сроки наложения фильтра были разные, а сняты были все в одно время! При чем сняты были даже с тех сайтов, которые никак не претендовали на снятие. Было у меня пару сайтов, по которым мы сознательно решили забить на Яндекс и работали только с Google.

Что бы это могло значить? Как вы думаете?

Я специально подождал несколько недель и могу сказать точно, что ни по одному сайту, по которому в вебмастере был снят фильтр, трафик не восстановился. Более того, нет никакой тенденции на его рост. А это значит, что теперь наказание сайта за плохие ссылки стало встроенным в алгоритм! В google такое уже давно.

НО! В гугле есть специальный инструмент в панели вебмастера, который позволяет самому вебмастеру удалить любые ссылки на его сайт, чтобы они не принимались во внимание алгоритмом. Понятно, для чего такое сделано: чтобы конкуренты не могли завалить сайт, закупив на него кучу плохих ссылок. В Яндексе такого инструмента на сегодняшний день нет. Но я очень надеюсь, что он появится.

Это первый существенный момент изменений в алгоритме.

Теперь по поводу вылизывания текстов страниц, о чем я писал в своем первом посте. По факту информация на самом деле на сегодняшний день не подтвердилась. В ТОПе выдачи стоят ооочень разные сайты. И честно говоря никакой особой закономерности в текстах их страниц на самом деле нет. Более того, некоторые страницы попадают в ТОП с количеством текста гораздо менее 2000 знаков. Так что в этом смысле в каждом конкретном случае нужно решать индивидуально. Это немного странно, но на мой взгляд не существенно: по крайней мере мы всегда так поступали и раньше.

Палехская роспись
Та самая Палехская роспись 🙂

До второго существенного момента я дошел аналитически. Как это?

А вот давайте вместе рассуждать. Яндекс в новом алгоритме завязал выдачу на искусственный интеллект, который в свою очередь обучается практически на одних только пользовательских факторах.

Не видите тут никакого подвоха?

Правильно! 🙂 А ведь есть же куча сайтов, по которым сигналы пользовательских факторов слишком малы, чтобы делать какие-то выводы просто потому, что посещаемость невысокая.

А какие у Яндекса есть варианты для ранжирования таких сайтов?

Да, один вариант очевиден — ротация сайтов в выдаче, чтобы дать им возможность набрать ПФ. И Яндекс делает это — факт. Но в этом нет ничего нового. Такое было и раньше. Но работало не очень, честно говоря.

А какие еще есть варианты?

Смотрите, в алгоритм нужно включить еще один фактор, который не завязан на содержание страницы, так как оно отдано на откуп искусственному интеллекту, и не завязан на пользовательские факторы. Что бы это могло быть? Догадались?

Правильно — старое доброе внешнее ссылочное!

Звучит невероятно? Но теперь это тоже уже факт. Мы провели несколько экспериментов с внешними ссылками. И я могу однозначно сказать — внешнее ссылочное стало работать гораздо лучше, чем до палеха. Теперь сайты реагируют на появление хороших внешних ссылок буквально в течение недели!

И в этом случае кстати становится понятно, почему Яндекс включил фильтр за плохие ссылки в основной алгоритм. Теперь этот фактор снова важен, поэтому нужно его отслеживать постоянно. И за плохие ссылки начислять, как и Google, штрафные баллы.

Плохо во всем этом (по крайней мере пока) только то, что конкуренты могут достаточно легко просадить сайт. И бороться с этим, пока не появится инструмент, аналогичный Google disavow, достаточно сложно.

Вот, пожалуй, и все, что удалось достоверно установить на сегодня.

Как обычно, обращайтесь, за качественным продвижением, в том числе и SEO.

Кстати, SEO по-прежнему остается самым выгодным каналом продвижения: именно он генерирует самые дешевые лиды и дает самый дешевый трафик.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *