Баден баден фильтр яндекса проверить: Алгоритм Яндекса «Баден-Баден»: чем страшен и как снять

Содержание

Алгоритм Яндекса «Баден-Баден»: чем страшен и как снять

Автор статьи: Кирилл Бузаков,
SEO-оптимизатор компании SEO.RU

Фильтр Яндекса «Баден-Баден», запущенный в марте 2017 года, стал ответом поисковой системы на переоптимизированные тексты. Это наказание для сайтов, на которых размещены статьи не для людей, а для поисковиков.

Несмотря на то, что алгоритму уже больше 3 лет, к нам и сейчас в работу приходят сайты, на которые наложен этот бан. Поэтому расскажем подробнее об этом алгоритме, о том, какие бывают его типы и как от них избавляться.

За какие именно тексты накладывается «Баден-Баден»?

  • Переоптимизированные. Когда писали эти материалы, в первую очередь думали об улучшении текстовых факторов ранжирования страниц, а не о пользе для посетителя.
  • Не содержащие достаточной смысловой нагрузки либо вовсе без нее. В таких текстах нет конкретики, а слов много. Это сделано для увеличения объема материала. Например, в тексте о товаре несколько абзацев о его стоимости, покупке по низкой цене, но при этом конкретной цифры нигде нет. Сюда же можно отнести статьи с геозависимыми запросами, в которых нет конкретной информации об оказании услуг или об особенностях покупки товаров в локации, о которой идет речь.
  • Частично либо целиком скрытые от пользователей сайта. Нельзя размещать тексты, используя свойство display со значением none (display:none) — Яндекс за это наказывает.

Как быстро понять, что на сайт наложен этот фильтр?

Первый звоночек — резкое снижения позиций. Также информация об этом и других нарушениях отображается в Яндекс.Вебмастере в разделе «Диагностика» — «Безопасность и нарушения»:

Само сообщение о наложении фильтра выглядит так:

Бан «Баден-Баден» накладывается на отдельные поисковые запросы (запросозависимый «Баден-Баден») либо целиком на весь сайт по всем запросам (хостовый «Баден-Баден»). Рассмотрим каждый детальнее.

Запросозависимый «Баден-Баден»

Этот вид алгоритма похож на другой фильтр Яндекса, который появился намного раньше, в 2011 году, — «Переоптимизация».

Что происходит с сайтом и его показателями?

В случае наложения этого бана позиции сайта резко падают от 7 до 30 пунктов. Попавшие под фильтр страницы существенно теряют во входящем поисковом трафике. При этом можно заметить резкий рост позиций, если изменить запрос, причем даже несущественно.

Что делать?

  1. Проанализировать тексты в тех разделах на сайте, у которых снизились позиции. Для ускорения проверки можно использовать специализированные сервисы, например, «Тургенев».

  2. Затем рекомендуется удалить все найденные проблемные материалы. В крайнем случае — временно (пока переписываются материалы) закрыть тексты или их части при помощи тега noindex

    .

  3. После этого необходимо проверить объем размещенных текстов и при необходимости уменьшить его. Также надо разобраться с запросами: проверить и оптимизировать несогласованные поисковые фразы и запросы из двух-трех слов в тексте, изменить плотность их вхождений в самих статьях, в заголовках и метатегах. Дальше идет собственно работа с текстом и решение всех найденных проблем: в зависимости от «масштаба поражения» нужно либо изменить материалы, либо написать новые с нуля.

    Кроме этого, важно учитывать месторасположение текстов на страницах.

    Например, в моей практике был такой случай. Сайт попал под «Баден-Баден», на страницах категорий над карточками товаров были объемные статьи, явно не слишком полезные для пользователей. Что мы сделали: сильно сократили объем, уменьшили плотность вхождений поисковых запросов и переместили текст вниз, под карточки товаров. После снятия фильтра страница стала занимать даже более высокие позиции, чем до этого.

  4. После того, как удалили все проблемные тексты или после того, как разместили на сайте обновленные, необходимо в Яндекс.Вебмастере под сообщением о нарушении нажать кнопку «Я все исправил» и написать обращение в техподдержку Яндекса о решении проблем на сайте.

Последнее делать не обязательно, но в отдельных случаях это помогает сократить время ожидания обновлений.

Как обычно Яндекс отвечает на такие сообщения:

ВАЖНО: не нажимайте на кнопку «Я всё исправил», если вы не уверены в том, что удалили все проблемные тексты на сайте, или если намеренно удалили не все некачественные материалы. После такого проблема с большой долей вероятности сохранится, и процесс только затянется. А заново нажать на кнопку проверки можно будет не сразу. При этом требования при проверке текстового контента могут стать жестче.

Сколько ждать снятия фильтра?

После того, как вы выполнили все предыдущие шаги, а Яндекс начал проверку, позиции могут вернуться как после следующего, так и только через несколько апдейтов выдачи. В среднем, если все сделать правильно, процесс занимает до месяца.

Хостовый «Баден-Баден»

Этот вариант фильтра похож на ручную «Переоптимизацию», которую применяют антиспам-аналитики Яндекса.

Что происходит с сайтом и его показателями?

Наложение фильтра так же, как и в первом случае, можно зафиксировать благодаря сообщению в Яндекс.Вебмастере либо ручной проверкой позиций запросов.

Просадка в данном случае будет примерно на 20 позиций. При ручной проверке важно учитывать, что, несмотря на такое проседание, сайт останется в топе по витальным запросам (URL и название сайта).

Что делать?

Разобраться с основной причиной наложения фильтра: все ли тексты на сайте некачественные или же дело в каких-то особенно переоптимизированных разделах. Если выявить причину сложно, то нужно написать в техподдержку Яндекса: они могут предоставить 1-2 примера URL проблемных страниц.

Чтобы ускорить процесс, рекомендуется сразу удалить вообще все тексты на сайте. Исключение составляют технические разделы (страница с информацией об условиях доставки, страница с контактными данными компании, но их также нужно проверить и при необходимости исправить и переразместить первым делом). Позиции могут заметно вырасти в период после того, как вы удалили старые тексты, но до того, как опубликовали новые.

После удаления нужно отправить сигнал о проверке в Яндексе.Вебмастере, написать в техподдержку и уже после данных действий заниматься переработкой некачественных материалов. Размещать их лучше всего будет уже после снятия фильтра.

Сам процесс переработки текстов в случае хостового бана от бана запросозависимого не отличается. Продублируем схему: нужно переписать тексты полностью либо сократить их на 70-90%, не забывая учитывать несогласованные поисковые фразы и запросы, состоящие из 2-3 слов. Также смотрим плотность их вхождения не только в самих материалах, но и в заголовках и метатегах. Помним про логику расположения текстового блока на странице.

Стоит отметить, что скрытие текстов тегом noindex может не дать желаемого эффекта. И все так же помнить, что не надо нажимать на кнопку «Я все исправил» просто так.

Сколько ждать снятия фильтра?

Если вы все делали корректно, весь процесс занимает до месяца.

Как избежать наложения «Баден-Бадена»?

  • Размещать на страницах сайта только качественный контент.
  • Не допускать высокой плотности вхождений поисковых запросов в текстах, заголовках, метатегах и остальных элементах страниц.
  • Использовать при создании контента приемы LSI-копирайтинга.
  • Отказаться от малоинформативных объемных материалов, а также от статей, сгенерированных автоматически.
  • Проверять оригинальность текстов и их качество, используя специализированные seo-сервисы, и не допускать ошибок в употреблении поисковых фраз.
  • Не добавлять много изображений, особенно, если не относятся к тематике материала.
  • Форматировать тексты, использовать нумерованные и маркированные списки и другие способы улучшения визуального восприятия контента.
  • Использовать теги strong и italic только там, где это действительно нужно, а не для дополнительного выделения поисковых фраз.

Алгоритм Баден-Баден: описание фильтра от Яндекс

«Баден-Баден» – это алгоритм и текстовый фильтр поисковой системы Яндекс, работающий с марта 2017 года. Направлен на борьбу с переоптимизированными страницами с бесполезным для пользователя контентом.

Как алгоритм употребляется для определения наличия нарушения «Переоптимизация», при котором все страницы сайта понижаются в ранжировании в среднем на 20 пунктов. Когда фильтр накладывается на весь домен сразу, он отображается в Вебмастере в разделе «Безопасность и нарушения».

В отдельных случаях возможны позапросные и постраничные санкции, о которых не появляется уведомление в панели Вебмастера, но поддержка сообщает об их наличии.

Признаки

Фильтр Яндекса «Баден-Баден» можно определить:

  • по резкому снижению трафика только с Яндекса;
  • быстрому проседанию примерно на 20 позиций в один день.

Чтобы убедиться в наличии ограничений, нужно проверить, есть ли уведомление в Вебмастере или обратиться с вопросом в службу поддержки.

Конкретные страницы сайта, которые алгоритм счел спамными, не указываются. Нужно будет самостоятельно проверить, где размещены тексты, рассчитанные на поисковых роботов.

Причины

Алгоритм Яндекса «Баден-Баден» направлен на борьбу с сайтами, содержащими контент не для пользователей, а для попыток манипуляции ранжированием в органической выдаче по интересующим запросам.

Представители Яндекса подчеркивают, что фильтр «Баден-Баден» накладывается на сайты не только из-за какой-то пороговой плотности ключевых фраз, а из-за отсутствия полезности.

baden-baden1.png

baden-baden1.png

Конкретные принципы работы алгоритма и критерии оценки пользы текста не разглашаются.

Не комментируется, какое соотношение спамных и полезных страниц на ресурсе может быть допустимым для применения ограничений в ранжировании на весь ресурс.

SEO-специалисты, исследовавшие сайты, на которых подтверждено нарушение, отмечают, что:

  • по академической и классической «тошноте» корреляции не наблюдается;
  • SEO-портянки – первые кандидаты;
  • скрытие текста любым способом – намек на отсутствие его ориентации на пользователя;
  • под санкции попадают страницы с текстами с большим количеством воды – стоп-слов, общих и нетематических фраз, устойчивых конструкций, которые можно убрать без потери смысла;
  • повторы фраз из двух-трех слов, естественность которых в этом тексте вызывает сомнения (например, со словами «купить», «цена» и пр. в информационном, а не коммерческом тексте), могут быть сигналом для алгоритма. Аналогично в случаях, если слова из типичных для ключей словосочетаний используются только вместе, а по отдельности не встречаются;
  • причиной срабатывания могут быть несогласованные или неестественные фразы в любой части документа;
  • негативно может сказываться употребление топонима только рядом с явными ключами;
  • чем меньше смысловой нагрузки несет текст, тем больше риск.

Есть исследования, в которых SEO-специалисты приводят некоторые выявленные ими по статистике своих проектов пороговые значения, но важно понимать, что они отличны для разных типов ресурсов, тематик и т. д. И к тому же на ранжирование оказывает влияние масса других факторов.

Представители Яндекса отмечают, что попытки высчитать какие-то значения бесполезны, потому что алгоритм обучается.

baden-baden2.png

baden-baden2.png

Как выйти из-под фильтра

Если текст на странице размещен только для попыток манипуляции и не несет пользы для посетителя, основная рекомендация представителей поисковой системы – удалить его вообще.

baden-baden3.png

baden-baden3.png

Пример: SEO-портянки на страницах категорий интернет-магазинов.

Функции придания релевантности в таких случаях переходят на другие элементы, проработку коммерческих факторов и юзабилити.

При этом важно помнить, что переспама не должно быть нигде.

baden-baden4.png

baden-baden4.png

Но поисковый бот умеет отличать естественные повторы, например из-за структуры, от намеренных. Так, если на странице интернет-магазина выводится много товаров, в названии каждого есть какое-то слово, это не будет спамом. Так же с элементами навигации.

baden-baden5.png

baden-baden5.png

Иногда используется запрет индексации текстов или их части с помощью <noindex>. Применяется, если тестируется гипотеза о снижении позиций сайта из-за них или есть подозрение, что негативное влияние оказывает какая-то часть контента. Другая причина – обход риска потерять позиции в Гугле, если трафик с него более значимый. Но такой прием может работать не всегда, а при обширном использовании возможны проблемы со стороны поисковых систем. Это не избавляет пользователей от SEO-текста, который на них не рассчитан, раздражает и не стимулирует к совершению целевого действия.

baden-baden6.png

baden-baden6.png

Если есть смысл в наличии текста на странице сайта, нужно переделать переоптимизированный или заменить новым, где не будет:

  • слов только ради количества символов;
  • излишней воды;
  • неестественных вхождений ключевиков;
  • чрезмерности в употреблении биграмм и триграмм.

Подгонка текста под какие-то высчитанные некоторым образом средние данные, искусственное определение естественности, подмена ключей на синонимы и другие манипуляции не помогут, если текст не нужен вообще или не несет пользы для посетителей сайта.

baden-baden7.png

baden-baden7.png

После удаления или замены текстов нужно отправить уведомление техподдержке, кликнув по кнопке «Я все исправил» в Вебмастере, если санкции применены ко всему сайту, или обратиться в поддержку.

Снятие ограничений в ранжировании проходит в течение месяца после устранения нарушений.

При удалении или замене текста важно помнить, что это может привести к изменению ранжирования сайта и в других поисковых системах. Также нужно учитывать, что все поисковики активно борются со спамом. Поэтому выгоднее сразу ориентироваться на потребности пользователей, а не переделывать весь контент на сайте при каждой смене алгоритма.

как проверить сайт на наличие санкций

Весной 2017 года стало понятно, что «мир» SEO* больше никогда не будет прежним. Вторая по величине поисковая система Рунета — Яндекс, анонсировала введение нового алгоритма ранжирования сайтов в своей поисковой выдаче. Он получил яркое и запоминающееся название «Баден-Баден».

Причиной введения нового фильтра стали чрезмерные старания владельцев сайтов совместно с SEO-специалистами механически повлиять на результаты поисковой выдачи с целью выведения своих ресурсов на топовые позиции. Это привело к тому, что контент многих сайтов просто потерял информационную ценность для пользователей. Он превратился в потерявшие логику и смысловую нагрузку списки перечислений ключевых фраз и слов. Отсюда и подтекст названия фильтра «Баден-Баден».

А вот и пример того, что Яндекс имеет в виду, из их собственного блога:

Рис.1. Блог Яндекса для веб-мастеров. «Баден-Баден» — новый алгоритм определения переоптимизированных текстов

Я в «Баден-Бадене»: кто виноват и что делать?

Уверены, что немало SEO-оптимизаторов «пострадало» от рук некогда доверчивых клиентов, чьи сайты попали под «Баден-Баден». Ну а если честно, кто виноват и что делать?

На пике популярности SEO все средства продвижения были хороши, и у многих web-мастеров в ход шли все тогда еще не запрещенные приемы: основные тексты с обилием ключевых слов, а также «скрытые» переоптимизированные тексты, которые размещались в отдельных вкладках, проскроллах, сносках или невидимых для глаза пользователя блоках, закрытых HTML-кодом display:none.

Делать SEO было дешевле, чем платный поиск (SEM**), и оно давало быстрые и относительно стабильные результаты. Многим действительно не хотелось захламлять свои сайты сеошной информацией, но доводы разума отступали при взгляде на аналитику — в ТОПе были конкуренты с оптимизированным контентом. Поэтому первопричиной появления «Баден-Бадена» все же стало техническое несовершенство самой системы ранжирования Яндекса, которая позволяла занимать лидирующие позиции ресурсам с некачественным контентом.

Но справедливости ради стоит отметить, что с 2010 года Яндекс предпринимал попытки борьбы с «псевдооптимизацией» и поочередно ввел текстовые фильтры «Переспам» (при его применении проседал конкретный запрос, по остальным результаты выдачи страницы оставались без изменений) и «Переоптимизация» (проседала вся группа запросов продвигаемой страницы). Однако они не смогли остановить надвигающуюся глобальную проблему низкого качества контента сайтов в видимой для пользователя выдаче (~ ТОП-50).

Как работает «Баден-Баден»?

Теперь рассмотрим, как работает пришедший на смену своим предшественникам текстовый фильтр «Баден-Баден». Его усовершенствованный алгоритм дает возможность определять не только отдельные «переоптимизированные» страницы, но и сайты целиком и применять к каждому случаю специальную санкцию:

Запросозависимый «Баден-Баден» Хостовый «Баден-Баден»

Санкция применяется к отдельным страницам по отдельным запросам.

Ваш сайт останется в выдаче по другим запросам.

Санкция применяется ко всему сайту, если большинство его страниц содержат нарушения.

Ваш сайт останется в выдаче только по прямым (витальным) запросам — название компании/бренда, адрес ссылки.

Рассмотрим оба типа подробнее.

Запросозависимый тип фильтра очень похож на своих предшественников «Переспам» и «Переоптимизация» и является «лайт»-версией «Баден-Бадена».

По сравнению с хостовым его гораздо легче снять, но гораздо труднее идентифицировать. При наложении на сайт хостового фильтра Вы получите в Яндекс.Вебмастере сообщение, что Ваш ресурс под санкциями (см. рис. ниже), забьете тревогу и начнете разбираться.

Рис.2. Пример сообщения в Яндекс.Вебмастере

В случае с запросозависимым фильтром Вы можете долго смотреть на аналитику и не понимать, почему просели отдельные запросы и что с этим делать. Для определения данного типа «Бадена» нужен специальный технический сервис, который Яндекс не предоставляет. Подобные разработки уже есть у некоторых ведущих SEO-агентств, в том числе у компании Demis Group.

В целом и в том и в другом случае определить и решить проблему самостоятельно, без помощи специалистов, будет довольно трудно. Тем более что на счету невозобновляемый ресурс — время. И если после выхода из позапросного «Бадена» можно вернуть былые позиции достаточно быстро (при достаточной проработке контента примерно за 1–2 апдейта), то в случае хостового сайт вернется в выдачу в лучшем случае в течение месяца (см. рис. 2). А в случае нескольких неудачных попыток возвращение и восстановление позиций может растянуться на месяцы.

Запросозависимый «Баден-Баден» Хостовый «Баден-Баден»

Особенности: трудно идентифицировать, но после определения достаточно легко и быстро снимается (не после определения)

Особенности: легко идентифицировать, но трудно и долго снимается

Что делать:

  • Переработать текст (уменьшить количество «санкционных» ключевых слов, сократить объем текста и неестественных конструкций, опционально использовать тег noindex, переориентировать текст под потребности потенциального клиента, повысить информативность)
  • Поверить и отредактировать содержимое заголовков h2–h6, title и тегов форматирования, скорректировать метаописания

Что делать:

  • Удалить SEO-тексты на 50–100 процентов или существенно сократить объем неинформативных абзацев текста, генерированных документов
  • Проверить и отредактировать содержимое заголовков и тегов
  • После выхода из-под фильтра использовать новый (качественный и содержательный) подход к наполнению сайта

Дорога из «Баден-Бадена»

Чтобы дать Вам реальное представление о затратах времени и труда для вывода из-под фильтров, приведем несколько реальных примеров из рабочей практики.

Снятие запросозависимого «Баден-Бадена»

Описание проблемы

К нам обратился клиент, у которого высокочастотный запрос «металлические двери», имевший стабильные позиции в ТОП-3, упал до 37 строки. При этом большая часть запросов посадочной страницы так и остались в ТОПе, значительно не изменив свои позиции. Идентифицировать наличие позапросного «Бадена» помогли разработанный нашими аналитиками сервис Infiltration³ и обратная связь от техподдержки Яндекса («Платон»).

Решение проблемы

Точечно (по просевшему запросу) уменьшили количество ключевых слов в тексте. Изначально было 10 вхождений. Потребовалось убрать всего 2 повтора слова «металлические». Значительных изменений в содержание текста вносить не пришлось.

Динамика позиций

После индексации корректировок запрос восстановил позицию до 4-й, а впоследствии зафиксировал первоначальную, 3-ю позицию (см. рис. 3).

Рис.3. Пример скачков позиций

Снятие хостового «Баден-Бадена»

Описание проблемы

Сайт попал под хостовый тип фильтра. Находился там продолжительное время — с 22.04.2017 г. по 21.07.2017 г. Был выведен через 3 месяца.

Решение проблемы

Изначально для решения проблемы были внесены изменения в контент сайта: переработаны тексты, изменены кнопки/теги. Но результатов это не дало.

Далее тексты на продвигаемых страницах были закрыты в noindex (так Яндекс их не видит и не анализирует), но и это не решило проблему.

Затем в список страниц для закрытия в noindex попали и статьи сайта, но и это не помогло.

Стало понятно, что нужны кардинальные меры — полное удаление SEO-текстов и неинформативных статей с сайта.

В итоге фильтр был снят. Обратно разместили тексты только на те страницы, позиции которых не достигли ТОП-10 после выхода из-под фильтра. Это решение основывалось на анализе конкурентов (добавили переписанные тексты на страницы, где у конкурентов в ТОП-10 они также присутствовали).

Динамика позиций

Рис.4. Динамика позиций

Вот и все! Надеемся, нам удалось рассказать Вам, что такое «Баден-Баден» и как с ним бороться. А если сил и энтузиазма сражаться в одиночку нет — зовите нас на помощь!

Вперед, к новому качественному контенту!

* Search Engine Optimization (поисковая оптимизация) — комплекс мер по внутренней и внешней оптимизации сайта с целью поднятия его позиций в результатах выдачи поисковых систем по определенным запросам пользователей.

** Search Engine Marketing (платный поиск) — комплекс мер по увеличению посещаемости сайта за счет использования онлайн-рекламы на страницах поисковой выдачи. Позволяет получить моментальные, но краткосрочные (ограниченные рекламным бюджетом) результаты.

Как выглядит «Баден-Баден» — SEO на vc.ru

Алгоритм «Яндекса» «Баден-Баден» вышел ещё в марте 2017 года, поэтому к началу 2019 года хорошо известен и изучен. Но заложенные тогда принципы ранжирования продолжают действовать, поэтому и сегодня к нам обращаются отчаявшиеся владельцы сайтов, попавших под фильтр.

{«id»:56871,»type»:»num»,»link»:»https:\/\/vc.ru\/seo\/56871-kak-vyglyadit-baden-baden»,»gtm»:»»,»prevCount»:null,»count»:9}

{«id»:56871,»type»:1,»typeStr»:»content»,»showTitle»:false,»initialState»:{«isActive»:false},»gtm»:»»}

{«id»:56871,»gtm»:null}

5669 просмотров

Симптомы у всех схожие: внезапное понижение позиций и полное отсутствие комментариев «Яндекса». Иногда бывает так, что компания, где заказано продвижение, не может справиться с проблемой больше года, клиенту это надоедает, он расторгает договор и обращается за помощью к нам.

Предлагаю взглянуть на один из самых первых примеров применений нового алгоритма на нашем клиентском проекте. А заодно и на последовательность выхода из-под санкций. Надеюсь, что кому-то это поможет без помощи профессионалов снова увидеть свой сайт на страницах результатов поиска. А коллегам просто будет интересно посмотреть динамику.

Итак, на дворе весна 2017 года

Речь пойдет о сайте салона свадебной моды. Проекту на тот момент шесть лет, на продвижении у нас он находится больше двух лет. Продвигаем по 45 запросам, все запросы коммерческие, преимущественно средне- и низкочастотные.

На 28 февраля 2017 года в «Яндексе»:

  • один запрос за пределами топ-30;
  • 26 запросов в топ-10;
  • 17 из них в топ-3.

Позиции держатся стабильно, колебания в пределах одного-двух пунктов.

Проект попал к нам уже с текстами на страницах товаров. Частично мы их доработали, частично оставили как есть: сайт довольно быстро взлетел в топ, а далее, как принято говорить, «ничего не предвещало». Это хороший пример, когда принцип «работает — не трогай» на деле не работает. Клиента тексты устраивали, оплачивались позиции, сайт с задачей справлялся. Зачем что-то менять?

А затем всё упало

На самом деле, конечно, не «всё», но сюрприз получился не из приятных. К концу следующего месяца ситуация стала такой:

Из 45 запросов 21 вылетел за пределы топ-30. Почти половина. Остальные либо вообще не потеряли позиций, либо просели, но незначительно.

Надо сказать, что это сейчас мы такие диагнозы ставим очень быстро, а в тот момент могли только наблюдать обвал в поиске, не понимая, в чем дело. Ясно, что это санкции, но за что?

Официальный анонс от «Яндекса» последовал 23 марта, если говорить о его содержательной стороне, то ее можно выразить в последних двух строчках публикации:

«Яндекс.Вебмастер» ни о каких фильтрах на сайте не сообщал, в сети информация была противоречивой и скудной.

{ «osnovaUnitId»: null, «url»: «https://booster.osnova.io/a/relevant?site=vc&v=2», «place»: «between_entry_blocks», «site»: «vc», «settings»: {«modes»:{«externalLink»:{«buttonLabels»:[«\u0423\u0437\u043d\u0430\u0442\u044c»,»\u0427\u0438\u0442\u0430\u0442\u044c»,»\u041d\u0430\u0447\u0430\u0442\u044c»,»\u0417\u0430\u043a\u0430\u0437\u0430\u0442\u044c»,»\u041a\u0443\u043f\u0438\u0442\u044c»,»\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c»,»\u0421\u043a\u0430\u0447\u0430\u0442\u044c»,»\u041f\u0435\u0440\u0435\u0439\u0442\u0438″]}},»deviceList»:{«desktop»:»\u0414\u0435\u0441\u043a\u0442\u043e\u043f»,»smartphone»:»\u0421\u043c\u0430\u0440\u0442\u0444\u043e\u043d\u044b»,»tablet»:»\u041f\u043b\u0430\u043d\u0448\u0435\u0442\u044b»}} }

Больше всего смущала избирательность фильтра: по одним запросам сайт не пострадал, по другим — стремительно покатился вниз.

Первые решения

Нововведение ударило по многим: в тематических сообществах завязалось активное обсуждение, а за ним появились первые гипотезы, первые подтверждения и выводы.

На тот момент было понятно, что новый фильтр пока работает только в постраничном режиме.

Официально это было подтверждено, в частности, на «Неделе Байнета 2017» Михаилом Сливинским (руководителем службы «Яндекса» по работе с вебмастерами). Ссылка на полное видео будет в конце нашего рассказа, здесь приведу скриншот нужного момента:

Но в конце марта 2017 года этих данных еще не было, а руководствоваться можно было лишь предположениями. Мы не были даже уверены, что в нашем случае дело именно в «Баден-Бадене».

Чтобы удостовериться в этом, мы закрыли индексацию текста на нескольких страницах. Через стандартные для «Яндекса» несколько недель получили первые результаты: страницы, попавшие в эксперимент, стали возвращаться в топ:

Возвращались неравномерно: одни быстрее, как на примере выше, другие медленнее. На страницах из контрольной группы никакого эффекта не наблюдалось, поэтому гипотезу посчитали верной и расширили «лечение» на весь сайт.

Тотальный карантин

Чистке подверглись и те страницы, которые не затронула пессимизация. Через месяц после официального запуска «Баден-Баден» начал понижать как отдельные страницы, так и весь сайт.

Тогда-то и подтвердилась гипотеза о двойственной сути «Баден-Бадена» и его поэтапном вводе:

Из этого слайда понятно, что при нахождении на сайте неопределенного порогового количества страниц с «текстами для роботов», весь сайт будет ранжироваться ниже. Формулировка — в лучших традициях поисковых систем — максимально размыта, но и эта информация уже была полезна.

К этому моменту мы успели миновать кризис и начали восстанавливать былые позиции.

Естественно, что все прочие проекты тут же подвергли ревизии и выявили «опасные» места. Тексты убрали, заказали новые, составили график публикаций. Серьёзно переработали нормативы и ТЗ для копирайтеров, изменили контент-стратегию и подготовили план её тестирования.

А что с текстами для свадебного сайта? На тот момент решили полностью от них отказаться и глубже проработать структуру страниц, поэкспериментировать и понаблюдать. Это сработало, сайт продолжил рост без SEO-текстов на продвигаемых страницах.

На графике посещаемости попадание под санкции хорошо заметно: в апреле просадка составила около 20%. К концу мая удалось вернуться на прежний уровень.

Так что делать, если фильтр вы уже получили

«Баден-Баден» бьет по страницам и сайтам, которые злоупотребляют текстами вот такого рода:

Это пример части описания, за которое мы получили в 2017 году пессимизацию. Написано оно было много раньше, но оставалось на сайте в виде рудимента.

Как я упоминал в самом начале, часть текстов мы переписали под новые запросы (они выглядели совершенно иначе), а часть решили не трогать. Как показало время, зря: страницы с обновлённым контентом фильтр обошёл.

Впрочем, сейчас и те переписанные тексты выглядели бы недопустимыми и в глазах пользователя, и в глазах поисковика. Современный контент для сайтов создаётся по совершенно иным принципам.

Что делать, если вы попали под «Баден-Баден»? Прежде всего загляните в «Вебмастер». Если фильтр наложен на весь сайт, то об этом будет официальное уведомление со специальной кнопкой «Я всё исправил». Пока не нажимайте: каждое следующее нажатие можно будет сделать через все больший период. Поэтому сперва очень важно убедиться, что вы локализовали и исправили все проблемные точки.

Если «Баден-Баден» постраничный, то такого уведомления не будет. Это часть алгоритма, поэтому «Яндекс» не считает необходимым отдельно уведомлять вебмастера о его срабатывании. Но действия в обоих случаях одинаковые: убрать с сайта переоптимизированные тексты. После этого сайт должен начать «оживать».

Писать ли новые взамен — зависит от типа проекта и того, насколько в целом верно действовал предыдущий оптимизатор. Как правило, совсем без текстов не получится. Контент все ещё важен в SEO, но только правильно применённый, уместный и, как бы банально ни звучало, написанный для людей.

Стоит понимать, что мы сейчас находимся на качественно другом уровне развития поисковых алгоритмов, поэтому сами по себе тексты ничего не решают: они дают результаты только в общей совокупности факторов.

Помните ещё и о балансе между позициями в Google и «Яндекс». Алгоритмы отличаются, очень важно не «качнуть лодку» в одну из сторон слишком сильно. Поэтому после выхода из-под фильтра я бы все же рекомендовал серьезно продумать контент-стратегию для сайта и работать по ней.

И не забывайте, что вопросы в «Яндекс» задавать не просто можно, а нужно. Не факт, что вам ответит живой человек, но это случается. И кто знает, может вы сможете найти общий язык и ускорить процесс обретения прежнего доброго имени.

Выступление Михаила Сливинского.

Как проверить, попал ли сайт под «Баден-Баден», и как выйти из-под фильтра

Представьте, что после очередного апдейта позиции вашего сайта в Яндексе вдруг сильно просели. Да и трафик упал до неприлично низких показателей. Неприятная ситуация, согласитесь. Одной из причин её возникновения может стать наложение со стороны Яндекса фильтра «Баден-Баден». Как понять, он ли всему виной? А если да, то как выйти из-под фильтра? Давайте разбираться прямо сейчас!

О своей неприязни к нашпигованным ключами текстам поисковые системы говорили много раз. Каноническим уже стал пост в Блоге Яндекса для вебмастеров от 13 сентября 2011 года. В нём поисковик ещё раз заявляет о своей позиции по данной теме: Яндекс «негативно относится к попыткам повышения релевантности страниц за счет чрезмерного употребления в текстах ключевых слов…». И называет данные действия «псеводооптимизацией», которая никак не способствует улучшению сайта. В этом же посте Яндекс информирует читателей, что вот-вот введёт новый алгоритм. Он сможет анализировать контент на проиндексированных страницах и выявлять те страницы, что были созданы с целью влияния на выдачу нечестными методами. В связи с этим представители Яндекса советовали вебмастерам пересмотреть свой контент, ответив на вопросы, а интересен и удобен ли он пользователям.

Следующим мощным шагом на пути очищения выдачи от сайтов с переоптимизированным контентом стало введение алгоритма «Баден-Баден». Произошло это памятное для вебмастеров событие в марте 2017 года и наделало много шума в профессиональной среде.

Максим Дель

Руководитель отдела SEO-продвижения Студии ЯЛ

Придя на работу в один прекрасный день, мы с коллегами увидели, что у некоторых проектов просели позиции по части запросов. Причина быстро обнаружилась – Яндекс запустил новый алгоритм. Нужно было оперативно реагировать. Мы начали с изучения вопроса: шерстили профильные форумы, собирали мнения и данные.

На тот момент первым и самым действенным шагом было закрытие текстов в noindex или вовсе удаление текстов со страниц с просевшими позициями. Спустя некоторое время мы увидели, что позиции стали потихоньку расти, а значит, мы все сделали тогда правильно. Уже очень скоро мы поняли, как мирно сосуществовать с «Баден-Баденом» и что делать, чтобы не попасть под новый фильтр. При постановке ТЗ на копирайтеров мы стали указывать меньшее количество запросов. Где-то результат давало изменение объёма текстов в сторону сокращения. Но тут всё индивидуально.

Принимать верные решения нам помогал качественный анализ контента сайтов из топа. Впрочем, в схожем формате мы работали и раньше. Помню, как особенно сильно в момент введения «Баден-Бадена» пострадал один из моих проектов – интернет-магазин, торгующий одеждой. Фильтр «задел» не все страницы – алгоритму не понравились тексты только на некоторых. В течение месяца удалось восстановить прежние позиции.

По традиции выход нового фильтра анонсировали в Блоге Яндекса. Задача нового фильтра была всё той же – отлавливать и понижать в выдаче переоптимизированные страницы. Только вот «Баден-Баден» стал на порядок «умнее» прежних алгоритмов.

Справка Яндекса об улучшении фильтра

По идее его создателей, «Баден-Баден» должен способствовать продвижению сайтов с качественным контентом, написанным для людей, а не для поисковых роботов. Практически сразу после выхода алгоритма начался следующий этап работ – определение на сайтах нарушения «Переоптимизация». Если такое нарушение будет выявлено, все страницы сайта начнут ранжироваться ниже. Чуть позже, первый этап работ назовут запуском запросозависимого (или постраничного) алгоритма, второй этап – введением хостового алгоритма.

Если вы хотите узнать о других поисковых фильтрах Яндекса, советуем почитать нашу свежую статью, посвящённую этой теме. В ней – ёмкий обзор всех основных алгоритмов Яндекса.

За что могут быть наложены санкции?

Сюрприз – не только за обилие ключевых слов и фраз, которые выглядят топорно. Спровоцировать недовольство со стороны поисковых машин может наличие:

  • Больших «полотен» – объёмных текстов без оформления. Такие тексты неудобно читать, ведь глазу не за что зацепиться. Пользователю сложно найти нужную информацию. Скорее всего, увидев перед собой подобную «портянку», он спешно закроет сайт и уйдёт на другой.
    Вот пример, когда вроде старались отформатировать текст, но не очень удачно получилось
  • Текстов, спрятанных под спойлер. Поисковик может подумать, что такие тексты скрывают от пользователей неслучайно. Возможно, в них слишком много ключей.
  • Пример с сайта детских товаров
  • Повышенные показатели водности текста. То есть обилие бесполезных с точки зрения информативности стоп-слов, а также фраз, оборотов, соединительных слов, не несущих смысловой нагрузки. Откровенно Яндекс никогда не признавал, что накладывает фильтр на страницы за водность текстов, однако в профессиональной среде SEO-специалистов давно уловили эту взаимосвязь. А ещё научились определять предел этого значения и даже внедрили специальные сервисы оценки качества контента. Подробности – ниже в этой статье.
  • Грамматически неверно составленные фразы, которые получились в результате использования прямого вхождения ключевика. «Детские бассейны Екатеринбург цена», «Купить настольная лампа дёшево»… Эти и подобные вхождения вызывают зубовный скрежет не только у обычных пользователей, но и у поисковых машин (а зубы у них наверняка есть, иначе чем они делают клац-клац в каждый апдейт).

Как понять, попали ли вы под фильтр Яндекса «Баден-Баден»?

Это просто, если ваш сайт угодил под хостовый фильтр, то есть если санкции будут наложены на весь сайт. Соответствующее оповещение отобразится в Яндекс.Вебмастере в разделе «Диагностика» – «Безопасность и нарушения». Это значит, что алгоритм прошёлся по всем страницам вашего сайта и на большинстве из них выявил нарушения.

Формально свидетельствовать о попадании сайта под хостовый фильтр «Баден-Баден» может просадка позиций ровно на 20 пунктов. В топе удастся удержаться лишь по витальным запросам: названию бренда или компании, URL сайта. Какие именно страницы не понравились Яндексу, нужно будет определять самостоятельно.

А вот в случае с наложением фильтра на отдельные страницы, ждать специального оповещения не приходится. Отсюда и проблемы с определением, что служит причиной обвала позиций и потери трафика. Неопытный оптимизатор будет долго анализировать факторы проседания страниц по отдельным вхождениям и, скорее всего, так и не докопается до истины. Сложность заключается еще и в том, что пониженные в топе по определенным запросам (если этих запросов слишком много) страницы могут сохранять свои позиции по другим запросам.

Косвенно о введении санкций может говорить проседание на 7-30 пунктов. Эта цифра напрямую зависит от конкурентности ключевых слов и того, какие позиции страницы занимали в топе до того, как залетели под фильтр.

Как понять, что причина проседания некоторых страниц в выдаче кроется в «Баден-Бадене»? Вот простой, проверенный алгоритм действий:

  1. Сначала составьте список всех страниц, на которых упал трафик и которые сильно просели по отдельным запросам;
  2. Разделите эти страницы на 2 части. На страницах из первой половины поменяйте текстовый контент или удалите его. Страницы из второй части оставляем без изменений. Так вы сделаете две тестовые группы и сможете провести наглядный эксперимент.
  3. Исправив контент на страницах из первой группы, добавьте эти странички в переобход. Остается самое сложное – ждать. Чтобы увидеть, дали ли наши действия плоды, придется дождаться 2-3 апдейтов.
  4. В результате нужно оценить, выросли ли позиции и увеличился ли трафик на страницах, где мы меняли/удаляли контент. Если да, то делаем соответствующий вывод.

Такой способ определения «Баден или не Баден» SEO-специалисты используют уже давно. И ходят слухи, что идея родилась с подачи самого Яндекса. Мол, так тестировать страницы предложил Платон Щукин – чат-бот Яндекса, от лица которого поисковик переписывается с вебмастерами и владельцами сайтов. Однозначно утверждать не будем – с нами Платон никогда не был настолько разговорчивым и конкретным. Обычно в своих ответах сотрудники Яндекса предпочитают использовать расплывчатые формулировки, суть которых сводится к «Продолжайте работать над улучшением сайта! Удачи!».

Сервисы, которые помогут не загнать страницы под фильтр за водность текстов

Обещанный обзор сервисов, определяющих содержание в текстах «воды».

«Тургенев»

Создан специально для того, чтобы оценивать, насколько текстовый контент отвечает требованиям фильтра Яндекса «Баден-Баден». Призван в целом сделать тексты лучше: показывает переспам, определяет содержание «воды», выискивает канцеляризмы, перегруженные обороты и другие проблемные места. Результат выдаёт в баллах – очень удобно.

Вот результаты проверки отрывка текста из этой статьи

Раньше доступ к «Тургеневу» был бесплатным. С 2019 года приходится платить за всё, кроме вкладки «Стилистика». Но она основная, поэтому многим пользователям и бесплатных опций сервиса оказывается достаточно.

Text.ru

Ещё один популярный сервис, определяющий водность текстов (правда не оценивающий риск попадания страниц под фильтр). Функциональный, простой в использовании. И уникальность с орфографией проверит, и SEO-анализ текста выполнит. Именно в рамках последнего text.ru делает подсчёт процента водности. В норме, если содержание «воды» в тексте не превышает 15%.

Давайте вместе проверим в text.ru ещё один отрывок из нашей статьи.

Вот что показывает сервис

Главред

Найти в тексте стоп-слова, то есть «воду» помогает и сервис «Главред». Убрав их, вы приведёте контент к информационному стилю. Сделаете тексты простыми и информативными.

Сервис бесплатный. Но сугубо утилитарный – проверить на нём пунктуацию и орфографию не получится.

Пропустим отрывок из нашей статьи через Главред. Сервис выделяет в основном личные местоимения и предлоги. Мы считаем, что их употребление оправдано, а итоговая оценка – достойная.

Результаты проверки Главредом

Как выйти из-под фильтра «Баден-Баден»

Это зависит от того, какой именно фильтр наложен на ваш сайт – постраничный или хостовый.

Обратите внимание: единого перечня жёстких мер нет. Все они носят рекомендательный характер. Любой опытный SEOшник скажет вам, что каждый проект уникален. А значит, нужно тестировать, подбирать решения под конкретную ситуацию.

Чтобы сайт скорее вышел из-под запросозависимого фильтра, производят следующие действия:

  • Меняют контент с точки зрения содержания – делают тексты более информативным, убирают «воду».
  • Большие тексты сокращают, избавляясь от 1/4 и даже от 1/3 объёма.
  • Уменьшают количество ключевых вхождений – борются с переспамом.
  • Форматируют текст – если надо, работают с заголовками и позаголовками, разбивают материал на абзацы поменьше, часть информации оформляют в виде списков или таблиц.
  • Проверяют, соответствуют ли alt и title изображениям.
  • Сомнительные куски контента «прячут» при помощи тега «noindex».

Чтобы вывести сайт из-под хостового фильтра «Баден-Баден», начните со следующих действий:

  • Найдите на сайте переоптимизированные тексты, те, что содержат устаревшую информацию или криво употребленные ключевики. Подкорректируйте контент. А ещё, если вы работаете с интернет-магазином, загляните в карточки товаров и проверьте, не слишком ли большие там описания.
  • Попробуйте вовсе удалить тексты, в которых сомневаетесь.
  • Сократите тексты, удалив неинформативные и переоптимизированные фрагменты. Возможно, придётся убрать больше половины от исходного объёма контента.
  • Просмотрите метатеги – нет ли в них ошибок и чрезмерного количества ключевиков.
  • Свяжитесь с Платонами Яндекса и попросите их прислать ссылки на страницы, которые якобы нарушили требования поисковой системы.

Чтобы с минимальными потерями выйти из-под хостового фильтра «Баден-Баден», наш вам совет – сразу после получения уведомления начинайте менять свою стратегию продвижения. Приготовьтесь, придётся серьёзно поработать над контентом.

И запаситесь терпением. От момента нажатия вами кнопки «Я всё исправил» до выхода сайта из-под бана может пройти больше месяца.

Поэтому, как вы понимаете, лучше туда не попадать вовсе. Как это сделать? Соблюдайте следующие правила.

Как «не уехать» в «Баден-Баден»

  • Следите, чтобы метатеги отражали содержание страниц.
  • Аккуратно используйте ключевые вхождения – не частите, используйте синонимы.
  • Помните, что фильтр на отдельные страницы и весь сайт может накладываться за водность текстов. Поэтому избавляйтесь от неинформативных кусков, стоп-слов, канцеляризмов, сложных для восприятия оборотов.
  • Форматируйте тексты – в них должны быть подзаголовки, абзацы, списки, таблицы. Никто не будет читать сплошное «полотно». Подобное оформление контента отпугивает посетителей сайт, что увеличивает количество отказов и провоцирует ухудшение поведенческий факторов. В результате страдают позиции.
  • Прописывая alt к изображениям, старайтесь не допускать ошибок.
  • Всегда держите в голове, что тексты должны быть полезными посетителям вашего сайта – информативными и понятными. Больше фактов, меньше «воды».
  • Время от времени возвращайтесь к раннее написанным текстам, проверяя, соответствуют ли они актуальным требованиям поисковых систем.

Подозреваете, что ваш сайт угодил под «Баден-Баден», но не знаете, как быстро снять фильтр? Мы готовы помочь вам «победить» санкции. Или взяться за ведение вашего проекта, минимизировав риск потенциального попадания под фильтр. Мы понимаем, какой контент нравится поисковым системам, а какой они не переваривают. И с учётом этого создаём ТЗ для своих копирайтеров. Те, в свою очередь, оперативно пишут качественные тексты – без «воды», неинформативных фрагментов и очевидных ошибок.

Если вы хотите оформить заявку на услуги Студии ЯЛ, позвоните нам по номеру 8 (383) 240-90-30 или оставьте свои контактные данные в специальной форме на сайте.

Максим Дель

Руководитель отдела SEO-продвижения Студии ЯЛ

Наталья Щукина

Специалист отдела контент-маркетинга Студии ЯЛ

Другие материалы:

Алгоритм фильтр Яндекса Баден-Баден: что это, как исправить, фильтр за SEO тексты в Яндекс

Посмотреть ролик на youtube.com — Фильтр Яндекса Баден-Баден, упали позиции что делать?


Подпишитесь на наш канал — Канал SEO Интеллект

История появления

23 марта 2017 года был анонсирован Баден-Баден — новый фильтр за использование SEO текстов в Яндекс. Развитие получил алгоритм, определяющий переоптимизированные страницы на сайтах. Наказывает, как правило за объемные тексты с высокой плотностью вхождений не несущий пользу посетителям сайта. Причем характерно, что текст может быть максимально полезный, но пользователи его не читают, то есть он им не нужен.

Виды и диагностика

  • 1) Хостовый. Наказывают весь сайт. В панели для вебмастеров появляется оповещение в разделе Безопасность и нарушения. Сайт проседает практически по всем запросам примерно на 20 позиций.
  • 2) Постраничный. Наказывают отдельные страницы, разделы сайта. Есть мнение, что могут понижать отдельные запросы. Позиции проседают от 10 до 100 пунктов (бывает больше). Похож на действие старого фильтра Переоптимизация.

Для снятия надо существенно переработать контент страниц: убрать переоптимизированные тексты (портянки), сократить кол-во вхождений в фрагментах текстов (особенно в шаблонносгенерированных). В отдельных случаях переработать полностью страницу с помощью Аудита содержания. Для интернет магазинов при хостовом фильтре необходимо найти общую причину, как правило тексты под листингом (списком) товаров. Важно! При удалении текстов может ухудшится ранжирование в Google.

Пример, как с помощью операторов поиска можно диагностировать фильтр смотрите в видео.

Примеры снятия санкций

Пример lestinca-v-dom.ru

В апреле 2019 сайт получает оповещение о фильтре. Действительно на страницах сайта есть тексты, которые не несут пользы. Наша не доработка, не все тексты сняли при работе с сайтом. Переписка с технической поддержкой — смотри в видео.

Убрали текст, отправили на переобход. Кто не знает, в панели Вебмастер Яндекс есть возможность быстрее переиндексировать страницы, например при изменениях на них. Находится в разделе Индексирование — Нажали на кнопку – ВСЕ ИСПРАВЛЕНО

Обычно этих действий достаточно, чтобы фильтр сняли. Но не в этот раз. Через 2 недели попросили в технической поддержке ПС Яндекс прислать примеры страниц, в которых до сих пор встречаются SEO тексты. Получили ответ с примерами двух страниц с товарами, на которых не было больших объемов текста. Но небольшие фрагменты текстов вызывали сомнения. Ок исправили на всех страницах, где встречалось. Отправили на переобход, нажали кнопку. Прошло 2 недели, эффекта нет… Тех поддержка прислала размытый ответ

Подождали еще 10 дней, эффекта нет. Новый запрос в ТП – присылают в пример переработанные страницы.

Разработали стратегию по переработке шаблонной оптимизации, коррекции небольших текстовых блоков для контент-менеджера. Одновременно попросили указать на странице, где именно встречаются текстовые блоки, за которые наказали. В ответ получили, что передадут на рассмотрение к специалистам. Ждать не стали внедрили все изменения, массово отправили на переобход. Через 2 недели фильтр сняли. Общие затраты времени около 2,5 месяцев.

Пример Паньшина

Коллеги из Паньшин Групп (apanshin.ru) встретились с аналогичной ситуацией, но проблема оказалась в другом. Сайт нового клиента, пришел с фильтром. На сайте имелись тексты, ок, причина фильтра ясна. Где-то тексты сняли, где-то переработали. Фильтр не сняли. Еще раз переделали тексты с использованием инструмента “Тургенев” от Ашманов и Партнеры. Хороший инструмент по проверки текстов, могу рекомендовать к использованию. Фильтр не сняли. После нескольких итераций, удалили страницы с текстами, логи ясна, нет страниц с текстами – нет фильтра. Но и это не помогло.

Причина оказалась в протоколах IPv4 и IPv6. Тем, кто работает по IPV4, показывается один сайт, а для IPV6 — другой, проблема возникла при переезде сайта на другой хостинг… После исправления через некоторое время Баден-Баден сняли.

Алгоритм Яндекса Баден-Баден — проверить сайт на фильтр в Labrika

За что накладывается Баден-Баден?

Баден-Баден — это алгоритм, с помощью которого Яндекс точно определяет переоптимизированные SEO-тексты на информационных сайтах и интернет-магазинах и накладывает на них пессимизацию, для которой характерно резкое выпадание позиций сайта из ТОП-10. Данный алгоритм был официально анонсирован в марте 2017 года. После того, как новый алгоритм вступил в силу, сотни, а то и тысячи сайтов с некачественными текстами быстро оказались на дне поисковой выдачи. Это обновление поискового алгоритма Яндекса ознаменовало собой новую эру продвижения — продвижения проектов без SEO-текстов.

Анонс выхода алгоритма в блоге Яндекса для вебмастеров
Описание алгоритма от Яндекс

Что такое SEO-тексты?

Многие оптимизаторы, вебмастера и владельцы сайтов слишком часто употребляют ключевые слова на продвигаемых страницах — в результате тексты становятся совершенно нечитабельными и бессмысленными, проще говоря, они не приносят посетителям никакой пользы. В таких текстовых блоках вы вряд ли найдете нужную информацию о товаре, доставке или услуге, зато ключевых фраз, по которым продвигается страница, будет в избытке. Суть этих текстов в том, чтобы повлиять на поисковые алгоритмы ранжирования, а не помочь пользователю. Отсюда можно сделать следующий вывод:

Фильтр Баден-Баден накладывается за тексты, которые не несут в себе никакой смысловой нагрузки и пользы для посетителя, а созданы для влияния на поисковые алгоритмы. Также для таких текстов характерен переспам ключевых фраз.

Внедряя этот алгоритм, Яндекс преследует цель сделать интернет более информативным и полезным для пользователей. И в этом нет ничего удивительного, если принять во внимание тот факт, что для российской поисковой системы наиболее значимыми сейчас является оценка поведенческих факторов. Зная это, нужно учитывать простое правило:

Контент на сайте создается для пользователя, а потому должен быть интересен и полезен для него. Посетители должны находить на странице ответ на свой поисковый запрос.

Как проверить переоптимизированный текст

Чтобы наглядно показать, за что можно попасть под действие алгоритма Баден-Баден, Яндекс приводит пример соответствующего текста.

Пример SEO-текста от Яндекс:

Как вы можете видеть в данном примере, фраза «SEO-текст» употребляется часто и не к месту. Сам текст не имеет никакого смысла и представляет собой набор никому не интересных фраз без абзацев и подзаголовков.

Как определить, что на ваш сайт попал под Баден-Баден

Как правило, после попадания под санкции, web-ресурс резко теряет позиции в поисковой выдаче и, соответственно, трафик. Если вы заметили резкую просадку позиций за неделю, стоит начать бить тревогу.

При наложении на сайт санкций в разделе «Безопасность и нарушения» сервиса Яндекс.Вебмастер появляется следующее уведомление:

После получения такого оповещения сомнений в наложении фильтра остаться не должно.

Как выйти из-под фильтра Баден-Баден

Самый верный способ: переписать и исправить причину, а именно: удаление всех некачественных и переоптимизированных (большое количество вхождений ключевого слово) текстов на сайте. При этом уделяйте особое внимание смысловой нагрузке и полезности информации. Старайтесь сохранять грамотную структуру текста, не забывайте про верстку, так как информация должна быть удобной для восприятия. Граматические ошибки, высокий процент воды и спама в тексте — недопустимы. Яндекс рекомендует размещать полезную информацию в виде схем или списков, отдельных блоков — так ее намного легче воспринимать, чем большой неструктурированный текст. 

Важно:

Проведите анализ сайта, посмотрите на него глазами клиента и задайте себе вопросы: полезна ли информация в описаниях? Она помогает определиться с выбором товара или услуги? Её интересно читать? Нет? В этом случае текст лучше переделать или написать новый.

Яндекс приводит пример хороших и плохих текстов в своей статье, которая вышла спустя год после обновления алгоритма: Бывают ли хорошие тексты на коммерческих сайтах?

Реальный кейс от Labrika: Как вывести сайт из-под фильтра Баден-Баден

После того, как вы исправите или удалите все некачественные тексты, необходимо нажать на специальную кнопку проверки в разделе с уведомлением о наложении фильтра в Яндекс.Вебмастер. После отправления сигнала об устранении нарушений в течение некоторого времени будет осуществляться проверка. Если вы достаточно качественно проделали свою работу и устранили проблемы переоптимизации, то фильтр будет снят, и сайт вернет свои позиции в поисковой системе. Если нет, советуем вам обратиться в техподдержку поиска Яндекса и продолжать работу над текстовым контентом.

Обратитесь в техподдержку Яндекс по поводу наложения фильтра Баден-Баден на ваш сайт с помощью формы обратной связи внизу страницы https://yandex.ru/support/webmaster-troubleshooting/threats/pereopt.html?host=http%3A вам ответит специалист со стороны технической поддержки Яндекса.

Вывод

Интернет развивается, и во главу угла сейчас ставится удобство для пользователя. В первую очередь пишите публикации для посетителей сайта, а не для поисковых роботов, делайте его полезным, интересным и удобным для просмотра. Использование полезного контента действительно работает! Соблюдая эти простые правила, вы никогда не попадете под фильтр Баден-Баден и не потеряете позиции.

Фильтры поисковой системы Яндекс

26 июля 2021 г

Фильтры поисковой системы Яндекс

Если посещаемость сайта внезапно снижается, его видимость в поисковой выдаче внезапно становится намного ниже или отмечается стагнация в росте, велика вероятность наличия проблемы, которую будет сложно сразу обнаружить. Иногда SEO-специалистам нужно потратить много временных ресурсов, прежде чем они смогут вычислить резкое падение производительности.

Часто причиной обнаруженной проблемы являются санкции от Яндекс. В случае хостовых санкций, наложенных на весь сайт в целом, техподдержка поисковой системы Яндекс информирует об этом соответствующим уведомлением в панели Яндекс.Вебмастер, раздел «Безопасность и нарушения». Однако в случае санкций по отдельным страницам или запросам уведомление может не отображаться, и тогда вам придется их идентифицировать по косвенным признакам.

Санкции (их еще называют «фильтрами») — это специальный поисковый алгоритм, оценивающий определенные параметры сайта или его отдельных страниц. Это часть основного алгоритма ранжирования, который отвечает за понижение/исключение сайта из результатов поисковой системы.

Виды и классификация санкций

Существует два типа санкций:

  1. — Предварительные фильтры — не учитывают ряд факторов, которые необходимо учитывать в формуле ранжирования.
  2. — Пост-фильтры — применяются после ранжирования, после определения конечного значения функции релевантности.

В зависимости от причины наложения все виды санкций можно классифицировать:

  1. — для текстовой составляющей;
  2. — за некачественный ссылочный профиль;
  3. — за обман пользователей;
  4. — за чрезмерную рекламу;
  5. — принадлежность сайтов;
  6. — АГС.

Рассмотрим каждый из них подробнее и разберемся, как с ними бороться.

Фильтры для текстового компонента

Самый распространенный вид санкций, с которыми сталкиваются веб-мастера при продвижении сайта на Яндекс. В эту группу входят такие санкции поисковых систем, как «Переспам», «Переоптимизация», «Неуникальный контент» и «Баден-Баден».

Текстовые фильтры от Яндекса условно делятся на запросозависимые и хостоориентированные.В первом случае в выдаче поисковика может проседать один или группа запросов, во втором нет зависимости от конкретного запроса, они накладываются на весь сайт. В основном санкции этого типа относятся к группе постфильтров.

Переспам

Запущен в феврале 2010 года. Борется с переоптимизацией текстовой части страницы. Сегодня этот поисковый фильтр Яндекса не так распространен, так как появились более новые, тем не менее фильтр все же можно применить к определенным темам.

Знаки фильтра:

  1. — Резкое падение ключевого запроса на 15-40 позиций в поисковой выдаче при правильном ранжировании страницы по другим запросам.
  2. — Модифицированная форма продвигаемого запроса (морфологическая или перестановка слов) ранжируется намного выше (например, запрос «провисание» ранжируется поисковиком на 36 месте, а его модификация на 11, то вполне возможно, что к запросу будет применен фильтр переспама.Точнее, о наличии этого фильтра можно говорить, если несколько модификаций пересылаемого запроса выше в поиске, чем сам запрос.

Как исправить:

  1. — Попробуйте изменить окончания ключевых слов, иногда этого достаточно.
  2. — Избавиться от лишнего количества ключевых фраз на странице (убрать/разбавить вхождения продвигаемых слов).
  3. — Проверить, не заспамлены ли атрибуты title и alt изображений на странице.Их также можно назвать «переспамом».
  4. — Уменьшить количество текста на странице (можно закрыть низ текста тегом noindex, но это будет работать только для Яндекса, поэтому лучше работать с объемом). Очистите текст от мусора.
  5. — Убрать логическое выделение слов в тексте (strong, b и т.д.)
  6. — Проверить анкоры входящих ссылок, увеличить количество неанкорных.
  7. — Структурируйте текст (стилизованные списки, изображения, таблицы и т. д.).

Минусинск

Запущен в 2015 году. Основная цель — сильное снижение позиции сайта по всем запросам в поисковой выдаче за избыточное количество и долю SEO-ссылок ссылочного профиля сайта. Если Минусинск накладывается на ваш сайт, соответствующее уведомление появится в Яндекс.Панель для веб-мастеров в разделе «Безопасность и нарушения». Основные признаки фильтра: сайт просел по всем запросам в пределах 14 позиций. Как исправить: удалите некачественные покупные ссылки на свой сайт.

Эталонный взрыв

Различные виды санкций, которые накладываются на сайт в случае манипулирования ссылочной массой (ссылочные кольца, пробеги).

Основные проявления фильтра: полное игнорирование поисковиком новых купленных ссылок, а существующие практически не влияют на позиции сайта.

Если нарушения будут исправлены, алгоритм определит это сам. Но чтобы ускорить процесс, вы можете нажать на кнопку «Я все исправил» в панели вебмастера. Сразу после нажатия кнопка исчезнет и может снова появиться через месяц, если поисковая система обнаружит нарушения. В следующий раз кнопка исчезнет на более длительный период.

Перед тем, как использовать кнопку «Я все исправил», рекомендуется полностью проверить свой сайт.Если вы уведомили поисковик об устранении проблем, а потом заметили, что не все исправили, спокойно исправляйте даже после нажатия. Проверка исправления нарушений после нажатия на кнопку «Все исправил» длится около 2 недель.

Почему после переезда на новый домен встал фильтр от Яндекса?

В конце января мой сайт был заблокирован РНК из-за неприемлемого содержания. В связи с этим в феврале я перешел на другой домен, но не просто на другой, а легальная часть сайта была перенесена на site1 (60%), а остальное ограниченное содержание перенесено на другой домен на site2 (40%).Грубо говоря старый сайт был разделен на 2 новых сайта с таким же шаблоном.

1) соответственно настроены 301 редиректы для всех страниц и все старые ссылки редирект 301 явно на редирект новых доменов.
2) Ссылки на сайте Решил оставить приноу, т.е. материалы 2 новых сайтов ссылаются друг на друга.
3) После установки редиректа я добавил новые домены в яндекс вебмастер, но не склеил старый домен с новым, так как они не знают как это правильно сделать в случае разделения старого сайта на 2 новых.Но потом все-таки склеил сайт с site1
4) site2 (через неделю после переезда) получил фатальную ошибку «бесполезный контент, чрезмерное количество рекламы, поисковый спам», а через несколько дней такой же фильтр получил и site1. Это при том, что старая версия сайта занимала высокие позиции в Яндексе, имела ИКС1400 и проблем с этими фильтрами никогда не было. А после разделения 2-х новых доменов через неделю вместе полетели под фильтр. Исходя из этого, я понимаю, что проблема скорее всего не в качестве сайта, а в том, что я не правильно реализовал переезд на новые домены.

Подскажите пожалуйста:

а) Мой старый домен medow.ru был заблокирован РНК, в следствии чего Яндекс исключил его из результатов поиска в России. Могло ли быть так, что на новый домен (на который был настроен редирект 301) тоже наложили санкции. Короче санкции за 301 редирект?
б) насколько правильным с точки зрения правил яндекса является перенос старого сайта на 2 отдельных новых домена. Насколько это правильно и могло ли это вызвать санкции?
C) Два новых веб-сайта имеют одинаковый шаблон WordPress.Может ли это иметь негативное влияние?
г) Ваше предположение….

Настройки поиска — Яндекс.Поиск. Справка

Чтобы было удобнее искать информацию и пользоваться результатами поиска, настройте поиск Яндекс.
  • После того, как вы войдете в свою учетную запись Яндекса, ваши настройки будут привязаны к вашей учетной записи пользователя. Настройки также сохраняются на вашем компьютере (в файле) и действуют до тех пор, пока вы их не измените.
  • Настройки также привязаны к конкретному браузеру: при смене браузера поиск Яндекса придется настраивать заново.Вам также потребуется обновить свои настройки, если вы удалите все файлы cookie (например, при переустановке браузера или операционной системы).

  • Если ваш компьютер используется несколькими людьми или на нем установлено несколько браузеров, вы можете настроить параметры для каждого пользователя и браузера отдельно.

Чтобы перейти к настройкам, прокрутите страницу результатов поиска вниз и нажмите «Настройки».

Чтобы предложить ваши любимые веб-сайты и показать персонализированные результаты поиска, Яндекс использует вашу историю поиска и переходы на веб-сайты из результатов поиска.Настройте параметры:

  • Показать историю поиска: как только вы начнете вводить текст, Яндекс предложит подсказки, а результаты поиска будут содержать личные ответы на основе истории предыдущих запросов. Чтобы отключить эту опцию, авторизуйтесь в Яндекс.

  • Показать сайты, которые вы часто посещаете: Как только вы нажмете пустую строку поиска, появятся предложения ваших любимых сайтов.

  • Показать время посещений сайтов: В результатах поиска будет отображаться время посещения сайтов, на которых вы ранее находили ответы на свои запросы.

  • Показать теги персонализации результатов поиска: Персональные ответы, отображаемые в результатах поиска, будут отмечены специальным тегом.

Вы можете исключить из результатов поиска документы, содержащие ненормативную лексику и содержание «для взрослых». Для этого выберите соответствующий режим в разделе Фильтр результатов поиска внизу страницы:

  • Семейный поиск: Полностью исключаются из результатов поиска материалы для взрослых и сайты, содержащие нецензурную лексику (даже если запрос явно направлен на поиск таких Ресурсы).

  • Умеренный фильтр: Сайты «для взрослых» исключаются из результатов поиска, если запрос явно не ищет такие ресурсы (этот режим включен по умолчанию).

  • Без фильтра: В результаты поиска включаются все документы, найденные по запросу, включая интернет-ресурсы «для взрослых».

Также можно настроить безопасный поиск по этим ресурсам:

  • Файл Hosts. В файл нужно ввести IP-адрес Яндекса с предустановленным семейным поиском.

Дополнительные сведения см. в разделах Фильтр контента для взрослых и Семейный поиск организаций.

Яндекс анализирует, насколько найденный документ соответствует запросу пользователя. Чем полезнее ответ, тем выше он находится на странице результатов поиска.

Результаты ранжируются автоматически. Яндекс учитывает удобство навигации по сайту, его структуру, качество текстов, рекламную загроможденность и другие свойства сайта.

WP Избранное

Оценивает риск попадания под «Баден-Баден» и показывает, что нужно исправить.Наслаждайтесь 🙂

Baden-Baden — это алгоритм Яндекса для обнаружения неестественных, переоптимизированных текстов. Если на сайте не очень много некачественного контента, конкретные страницы опускаются в рейтинге. Если их много, фильтруется весь сайт. Тургенев оценивает риск Баден-Бадена в баллах, показывает проблемы и помогает с ними справиться.

Плагин

использует официальный «Тургеневский» API.

Дополнительную информацию вы можете найти на официальном сайте.

Кроме того, вы можете найти исходники плагинов в следующем репозитории.

Основные характеристики:
  • Тургеневский АПИ
  • Отображение текущего баланса
  • Анализ текста на лету в Gutenberg или Classic Editor
  • Подробные отчеты
  • Хорошо организованный исходный код
  • Крючки/фильтры WP
  • Поддержка русского и английского языков

Автоматическая установка

  1. Войдите в админ-панель WordPress
  2. Перейдите в Плагины -> Добавить новый
  3. Поиск Тургенева -> Установить сейчас (на стороне Тургенева)
  4. Активировать плагин
  5. Перейти в меню Настройки -> «Тургенев» -> Вставить ключ API -> Сохранить изменения
  6. Перейти на любую страницу/публикацию и т.д.-> В правой панели нажмите на значок «Т» или откройте метабокс «Тургенев» -> нажмите «Проверить содержимое»
Установка вручную

Метод ручной установки включает в себя загрузку моего плагина Turgenev и загрузку его на ваш веб-сервер
через ваше любимое FTP-приложение. Кодекс WordPress содержит инструкции о том, как это сделать здесь.

Минимальные требования
  • Версия PHP 5.6 или выше
  • WP 5.0 или выше
1.4 – 22.07.2020

Исправлена ​​функция проверки баланса
Добавлены переводы
Мелкие исправления

1.3 – 22.07.2020

Добавить проверку баланса на странице настроек
Добавить несколько переводов
Мелкие исправления

1.2 – 22.07.2020

Кодировать URL-адрес для запросов API

1.1 – 21.07.2020

Функция проверки содержимого исправления

1.0 – 2020-07-19

Первый выпуск

  1. Настройки API.

  2. Главный тургеневский щит.

Переоптимизация

Чрезмерная оптимизация (поисковой спам)  — чрезмерное использование ключевых слов на страницах в попытке улучшить ранжирование по этим ключевым словам вместо простого размещения ключевых слов в тексте и ответа на вопрос пользователя. Чрезмерная оптимизация ключевых слов в основном состоит (но не ограничивается) из-за наполнения ключевыми словами заголовков, основного контента, тегов заголовков, метатегов и чрезмерного использования сильного/жирного шрифта.

Поисковые системы начали наказывать за чрезмерную оптимизацию после того, как SEO-специалисты явно злоупотребляли этой тактикой и постоянно злоупотребляли ключевыми словами, пытаясь манипулировать их весом для искусственного повышения релевантности страницы, что затем приводило к повышению поискового рейтинга.

Поисковые системы, как правило, применяют локальный подход к наказанию страниц с чрезмерно оптимизированным текстом и просто снижают рейтинг отдельных чрезмерно оптимизированных страниц по сравнению со всем сайтом. Однако постоянные и явные злоупотребления этой тактикой на уровне всего сайта могут привести к резкому снижению рейтинга сайта.

Отчет Лабрики показывает все виды переоптимизации. Это поможет вам найти все потенциально «плохие» страницы, которые могут быть оштрафованы за чрезмерную оптимизацию. Не все страницы, обнаруженные с проблемами, будут переоптимизированы, но вы должны проверить все страницы, перечисленные с нарушениями, чтобы убедиться. Здесь очень важен контекст.

Обратите внимание: исправление чрезмерной оптимизации не обязательно всегда приводит непосредственно к повышению рейтинга. Вам нужно будет убедиться, что помимо чрезмерной оптимизации текста ваша страница действительно полезна для пользователя и поможет ему удовлетворить свои поисковые запросы.

Типов переоптимизации, найденных Лабрикой:

  • Вброс одиночных ключевых слов в контент (чрезмерное использование одного ключевого слова по сравнению с контентом ранжирования конкурентов).

  • Вброс биграмм (двухсловных фраз) и триграмм (трехсловных фраз) в контенте.

  • Ключевое слово используется несколько раз в одном предложении (обычно неестественно).

  • Высокая плотность ключевых слов в META-тегах.

  • Высокая плотность ключевых слов в заголовках.

  • Дублирование содержимого тега заголовка h3, h4, h5.

  • Чрезмерное использование заголовков.

  • , , , , теги в заголовках.

  • Чрезмерное использование полужирного шрифта.

Переполнение ключевыми словами в контенте

Для анализа наполнения ключевыми словами Лабрика использует академическую формулу , которая измеряет плотность/частоту использования слова/фразы по отношению к общему объему текста.

Ответ отображается в процентах и ​​рассчитывается по следующей формуле:

[Количество повторов слов в тексте] / [общее количество слов в тексте] * 100% .

Внимание! Каждое ключевое слово имеет свою «нормальную» плотность в обычном письменном тексте. В некоторых типах текстов плотность некоторых ключевых слов может быть выше, чем обычно (например, техническая или юридическая литература). Так же и на коммерческих сайтах высокая плотность ключевых слов (10% и выше) наблюдается в прайс-листах и ​​каталогах товаров.Однако это не означает, что он будет приемлем для других типов страниц.

В отчете Лабрики все слова отображаются с высокой плотностью. Чтобы выяснить, ожидается ли высокая плотность ключевых слов для этого слова, наш алгоритм проведет перекрестный анализ других топ-10 сайтов, ранжирующихся по этим ключевым словам, и проанализирует их плотность ключевых слов, чтобы определить оптимальную плотность.

Мы проверяем сайты конкурентов только на плотность ключевых слов по добавленным в анализ словам вручную. Другими словами, предупреждение показывается только в случае превышения обычной плотности по нашей формуле, но без дополнительной проверки сайтов конкурентов.

Контекст здесь имеет решающее значение, если вы отвечаете на вопрос пользователя, не думая о вставке ключевого слова, вполне вероятно, что вы автоматически будете использовать ключевое слово и другие связанные слова, чтобы ответить на вопрос совершенно естественным образом и, таким образом, использовать ключевое слово правильное количество раз.

Предостережение; в то время как высокий процент использования ключевых слов по отношению к общему объему текста может привести к штрафу за чрезмерную оптимизацию, слишком малое использование ключевых слов по отношению к общему объему текста может привести к тому, что ваш контент будет рассматриваться как не относящийся к ключевому слову поисковые системы.

Если в нашем отчете рекомендуется уменьшить плотность/частоту определенных ключевых слов, мы рекомендуем ввести синонимы для замены всех экземпляров удаленных ключевых слов.

Вброс биграмм и триграмм в контент

Ранее санкции вводились за высокую плотность отдельных ключевых слов, но после внедрения Баден-Баден фильтра Яндекса также наказывается чрезмерное использование биграмм (двухсловных словосочетаний) и триграмм (трехсловных словосочетаний), особенно, если эти словосочетания комбинации включают типичные модификаторы.Например, «купить», «цена» или «лучший».

Ключевое слово используется несколько раз в одном предложении

Повторы слова в одном предложении усложняют чтение и естественное течение текста. Лабрика сканирует и выделяет такие трудночитаемые фрагменты текста. Повторение слов более приемлемо в юридических и технических документах, а также чаще встречается в хлебных крошках. Если повторы обычно не ожидаются в вашем типе контента, их следует удалить. Например, на скриншоте ниже слова «электростанция» повторяются три раза всего в одном предложении.Чтобы избежать ненужных повторов, достаточно указать только

.

«типы электростанций» один раз, а затем укажите различные типы электростанций.

Высокая плотность ключевых слов в META-тегах и заголовках

Лабрика также может проверять и указывать на высокую плотность слов, встречающихся в заголовках и МЕТА-тегах. Поскольку эти элементы содержат наиболее важную информацию на странице, поисковые системы придают им большее SEO-значение, чем остальному тексту, опубликованному на странице.Таким образом, чрезмерная оптимизация здесь особенно нежелательна, и ее следует избегать.

Если чрезмерная оптимизация уже присутствует в основном содержании страницы, то ее дополнительное чрезмерное использование в заголовках и META-тегах существенно увеличивает шансы на то, что ваш сайт получит штраф за чрезмерную оптимизацию.

Дублирование заголовков h3, h4, h5 и чрезмерное использование заголовков

Повторяющиеся заголовки относятся к повторениям тегов заголовков h3, h4, h5 на одной странице. Это можно рассматривать как чрезмерную оптимизацию и нарушение установленных стандартов реализации различной категоризации заголовков.Это также прерывает естественный поток и удобочитаемость текста для пользователя (а это не то, что вам нужно). Контент создается для пользователей, поэтому, если пользователи не могут правильно понять ваш контент, у вас, вероятно, будут плохие показатели вовлеченности, а также вы будете оштрафованы поисковыми системами.

Теги форматирования/ссылки найдены в заголовках

Лабрика умеет искать и находить в заголовках следующие теги:

(жирный ‒) – выделяет вставляемый текст жирным шрифтом.

(strong ‒) – используется для выделения важного фрагмента текста, который должен быть прочитан пользователем.Он также показывает текст жирным шрифтом.

(курсив) – используется для выделения курсивом части текста.

— содержит выделенный текст.

(якорь) — используется для создания ссылки.

Включение тегов в текст заголовка значительно увеличивает его вес. Включение слов в (Н1, Н2) также повышает их значимость для поисковых систем. Таким образом, сочетание этих двух факторов считается чрезмерным и может рассматриваться как чрезмерная оптимизация.

Мы рекомендуем, чтобы теги заголовков были свободны от тегов форматирования/ссылок и включали только полезные заголовки, обеспечивающие обзор содержания, находящегося под заголовком.

Чрезмерное использование полужирного шрифта

Лабрика показывает страницы с высоким процентом жирности текста.

Такой текст можно подсвечивать, но только в исключительных случаях. Например, когда вам нужно выделить и привлечь внимание к особо важной части информации или заголовку. Однако слишком много жирного текста на странице рассматривается как попытка искусственно повлиять на результаты поиска, так как выделение жирным шрифтом ключевых слов увеличивает их значимость при сканировании вашей страницы поисковыми роботами.

Палех — новый алгоритм Яндекса. Алгоритмы поисковой системы яндекс

Лето 2017, 22 августа — релиз нового поискового алгоритма от Яндекс. Объявление в официальном блоге: https://yandex.ru/blog/company/korolev

Чем будут озадачены сеошники в связи с его появлением? До этого интеллектуальный поиск представлял Палех, в анонсе 2016 обязательно читайте про нейросети и изменения в работе сеошников на

Цитирую новость:

«Яндекс запустил новую версию поиска на основе алгоритма Королёва — в нём используется нейросеть, способная сравнивать смысл запросов и веб-страниц.Это позволяет поиску отвечать на редкие и сложные вопросы с высокой точностью. Для обучения искусственного интеллекта Яндекс использует не только поисковую статистику, но и распределенную сеть асессоров и толокеров, а также оценки миллионов пользователей. »

Важной особенностью «Королева» является то, что помимо сравнения смысла запроса и страницы, он также учитывает смысл других запросов, которым релевантна страница.

Сравнение алгоритмов 2016 и 2017 годов

Палех сопоставил смысл запроса и заголовок веб-страницы в режиме реального времени.Королев использует нейросеть, которая анализирует всю страницу. »

В марте 2017 года Яндекс представил новый алгоритм ранжирования Баден-Баден для борьбы с перенасыщением ключевыми словами. Вот тогда и заговорили о важности копирайтинга LSI.

Что такое тексты LSI и как их писать

LSI копирайтинг (lsi — латентная семантическая индексация или латентный семантический индекс) — это не обычные сео тексты, насыщенные ключевыми фразами, а полное раскрытие смысла ключевых запросов в интересной для читателя форме.

В этой технике письма главную роль играют фразы по теме статьи. Не следует использовать редкие речевые обороты, понятные только узким специалистам в определенной области. Исключение составляют технические статьи.

Важно, чтобы пользователь получил исчерпывающий ответ на свой вопрос (поисковый запрос).

Теперь о конкретных действиях при наполнении и продвижении сайтов. На что нужно обратить внимание в первую очередь.

  • Использование синонимов теперь еще более важно, чем раньше.
  • Также важно использовать в текстах помимо ключевых слов тематические.
  • Не забудьте добавить подсказки (фразы, которые вы видите при наборе запроса в строке поиска), фразы снизу страницы результатов поиска (они тоже ищут…) подсветку.
  • Так же из статистики Яндекс.Вордстат: «Что искали словом…»

Подсказки:

фраз из нижней части поисковой выдачи:

Подсветка:

  • Яндекс и Google формируют сниппеты по-разному.Гугл берет из заголовка и описания, а Яндекс может выделить соответствующий запросу фрагмент текста. Поэтому чем интереснее и привлекательнее будет этот кусок, тем больше переходов на сайт из выдачи будет по сниппету.

Различия между LSI и SEO-оптимизацией

В SEO ключевые слова и фразы вставляются в заголовки, контент и метатеги.

  • LSI может иметь или не иметь ключей. Цель состоит в том, чтобы дать исчерпывающий ответ на вопросы потенциального посетителя.Если ключ не нужен для конкретной статьи, то лучше его не использовать.
  • В SEO мы стремимся к определенному проценту плотности ключевых слов.

LSI использует максимум дополнительных тематических и релевантных слов и фраз.

  • В SEO мы стремимся к технической уникальности.

В LSI важны семантическая уникальность и полнота содержания.

Заключение

Тексты

LSI могут быть в топе по запросам, которых нет в чистом виде на самой странице.

С индексацией LSI вам нужно забыть о нетематических боковых панелях.

«Королев» — это не Минусинск, не Баден-Баден. Это не карательный фильтр. Кстати, это не надстройка — это часть основного алгоритма Яндекса.

Королёв работает на основе самообучающейся нейросети и затрагивает достаточно редкие многословные запросы, в первую очередь информационные, которые направлены на уточнение смысла — низкочастотные (НЧ) и микро-НЧ, включая голосовой поиск, различные естественные параметры запроса, такие как «фильм, где мужчина в разных сапогах.»

Этот алгоритм создан для того, чтобы улучшить качество результатов по таким запросам, по аналогии с RankBrain Google, который уже давно хорошо справляется с этой задачей, да и сейчас по первым замерам работает лучше для таких запросов, чем Яндекс.

До этого был и есть алгоритм «Палех», который уже начал искать смысл, но делал это в реальном времени и сопоставлял только смысл запроса и заголовок — Заголовок страницы.

«Королев» анализирует не только Заголовок, а всю страницу в целом, показывает в результатах поиска даже те страницы, где нет упоминания слов из запроса, но страница подходит по смыслу. При этом сущность страницы он определяет заранее, на этапе индексации — в результате сильно возросла скорость и количество обрабатываемых страниц.

Насчет «трети» здесь можно преувеличить — реальную долю запросов, которых коснется Королев, еще никто не измерял.

Другие статьи о «Королеве»:

Многие моменты я еще не затронул здесь, о них стоит прочитать в других статьях. Я выбрал здесь только лучшее, действительно стоящее:

Мнения различных экспертов:

Дополнительные официальные источники:

Некоторые выдержки из мнений по ссылкам выше:

Дмитрий Шахов

«Королев» пройдет поисковую оптимизацию. По крайней мере, на данном этапе.Задача перед поиском — дать ответы на запросы, по которым нет документов с записями. Поиск решает эту проблему. Колибри в Google, Палех и Королёв в Яндексе. Запросы, по которым нет документов, не входят в область интереса поисковой оптимизации. Именно поэтому там нет никаких документов.

Артур Латыпов

Многие ожидали, что вскоре после «Палеха» появится алгоритм, который будет работать так же, но не в плане заголовков, а в плане содержания.Пока мы не заметили скачков трафика на отслеживаемых сайтах, будем наблюдать внимательнее и смотреть за развитием алгоритма в дальнейшем. Интересно, что раньше для улучшения ранжирования по большому количеству запросов, в том числе и по родственным, готовили SEO-тексты, у кого-то они были лучше, у кого-то хуже, кто-то называл их по-другому, но смысл не менялся… тексты наказываются за SEO, а поиск ранжирует документы по смыслу.
Мы ожидаем, что оптимизаторы будут использовать больше LSI в своей работе при подготовке оптимизации текста.

Соответственно будут развиваться услуги SEO. Напомню, что составление списка SEO-слов, терминов в теме, связанных запросов для подготовки контента и оптимизации используется специалистами уже несколько лет. Поэтому серьезных изменений в механике не будет, по крайней мере, пока.

В итоге больше внимания уделяем:

Качество контента;
намерение запроса;
отслеживает проблему.

И, конечно же, после запуска нового алгоритма от Яндекса всегда интересно проанализировать, что изменилось, и понаблюдать, что будет дальше.

Дмитрий Севальнев

Фактически с введением ряда новых коэффициентов, которые учитывают:

смысловое соответствие пары запрос-документ (по всему тексту документа, а не только по Заголовку, как ранее в алгоритме Палеха),
качество ответа документа на сходные по смыслу поисковые запросы, —

глобальных изменений для SEO-индустрии не будет. Наиболее существенные изменения коснутся «длинного хвоста» запросов, над которыми целенаправленно SEO-специалисты мало работают.Их много, они редки и часто обеспечивают разовые посещения сайта.

Ряд факторов, которые уже исследуются экспертами с того момента, как LSI стала «модной темой», можно повысить по значимости.

Олег Шестаков, технический директор и основатель Rush Analytics Россия

Анонс алгоритма Королева был, пожалуй, самым масштабным по показу. С точки зрения техники нельзя сказать, что это какой-то новый технологический прорыв.В чем смысл нововведения: теперь нейросети Яндекса оценивают соответствие между запросом и документом не только с точки зрения запроса и его вариаций (леммы, частей запроса и т. д.) в тексте документа документа, но и с точки зрения смысла запроса. Нейронная сеть, обученная на больших данных, теперь может определять релевантность документа запросу, даже если в документе нет слов запроса. На самом деле это не новая технология — она тоже использовалась в алгоритме Палеха, правда учитывала только названия документов.Те. Настоящая инновация здесь в том, что инженеры Яндекса смогли масштабировать очень ресурсоемкий алгоритм на несколько порядков — теперь алгоритм может оценивать сотни тысяч документов, а не 150 строк текста, как раньше.

Как алгоритм повлияет на рынок SEO?

— Глобально — ничего. Это всего лишь часть алгоритма, а большинство других факторов работали и будут работать. Этот алгоритм должен больше всего повлиять на низкочастотные запросы и часть среднечастотных запросов.

— Придется больше внимания уделять качеству текстов. Теперь, чтобы вывести страницу в ТОП, текст страницы должен содержать как можно больше синонимов и слов, относящихся к запросу, чтобы пройти по факторам нового алгоритма, так как он теперь учитывает именно такие слова, а не только «прямые вхождения». Никакого волшебства здесь нет — нейросеть обучается у учителей-оценщиков и до сих пор работает с текстами реальных сайтов, находя родственные по смыслу слова.Это значит, что вы можете провести аналогичный анализ и извлечь эти слова из своих ТОП-документов. Квалифицированные SEO-специалисты начали этим заниматься несколько лет назад. Простыми словами — тот же БИС, только в профиль.

— Рынок дешевого копирайтинга начнет рушиться, что очень хорошо. Задача написания текста в формате «3 прямых вхождения, 4 разбавленных и 2500 символов длиной» будет генерировать тексты, которые будут плохо ранжироваться.

Теперь нам нужны тексты-рассказы. Мы, как SEO-специалисты, должны во всех подробностях рассказать историю о продукте клиента, описав товар со всех сторон — при таком подходе упустить важные тематические ключевые слова будет физически сложно.Обратите внимание, что веб-мастера, зарабатывающие на сайтах статей, уже очень давно пишут истории, даже про адвокатов по алиментам, с отличным оформлением, раскрытием темы и интересными моментами. Что в итоге? У них много трафика и ТОПов, плюс тотальная победа над сухими сайтами юрфирм.

Производство контента станет несколько более дорогим и профессиональным. Компании, занимающиеся SEO, либо перестанут писать SEO-чушь и будут строить внутри редакторы контента для взрослых, либо их клиенты потеряют свой рейтинг в поиске.Яндекс вчера густо намекнул на это.

Александр Алаев

«Королев» вообще не про SEO. Цель SEO — работать с запросами, которые задаются много раз и их смысл ясен, и есть тысячи релевантных ответов. Задача поисковика в коммерческом сегменте — найти лучших кандидатов по коммерческим критериям, а не искать смыслы. Поэтому коммерческий вопрос не изменится, по крайней мере, существенно.

А вот владельцам информационных ресурсов стоит еще раз обратить внимание на качество контента, ориентировать свои публикации не на поисковые запросы, а на интересы пользователей, писать простым человеческим языком.

Все мои проекты, кроме этого SEO-блога:

TOP Base — качественная база для полуавтоматической регистрации в Allsubmitter или для полностью ручного размещения — для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, увеличения продаж, естественного разведения ссылочного профиля. Собираю и обновляю базу 10 лет. Есть всевозможные сайты, всех тематик и регионов.

SEO-Topshop — SEO-программы со СКИДКАМИ, на выгодных условиях, новости SEO-услуг, базы данных, руководства.В том числе Xrumer на лучших условиях и с бесплатным обучением, Zennoposter, Zebroid и многие другие.

Мои бесплатные комплексные курсы SEO — 20 подробных уроков в формате PDF.
— каталоги сайтов, статьи, сайты пресс-релизов, доски объявлений, каталоги компаний, форумы, социальные сети, системы блогов и т.д.

«Приближаясь..» — мой блог на тему саморазвития, психология, отношения, личная эффективность

Яндекс запустил новый алгоритм ранжирования — Королев.Теперь поисковик сопоставляет значения поискового запроса и страницы. Это очень удобно. Однако что означает новый алгоритм для сеошников и владельцев сайтов, как изменится продвижение и стоит ли ждать изменения посещаемости.

Как никогда весь мир SEO ждал запуска нового алгоритма ранжирования, анонсированного 22 августа 2017 года. Все-таки такие объявления абсолютно нетипичны для Яндекса, обычно они предпочитают не говорить о своих планах, а сообщать следующий выпуск алгоритма ранжирования постфактум.

22 августа 2017 года Яндекс запустил новую версию поиска. В его основе алгоритм поиска «Королев» (с 2008 года новые алгоритмы ранжирования в Яндексе носят названия городов). Алгоритм использует нейросеть для сравнения смысла запросов и веб-страниц — это позволяет Яндексу точнее реагировать на сложные запросы. Статистика поиска и оценки миллионов людей используются для обучения новой версии поиска. Таким образом, не только разработчики, но и все пользователи Яндекса вносят свой вклад в развитие поиска.

Область применения нового алгоритма практически не затрагивает традиционные направления SEO, в первую очередь, к которым можно отнести коммерческие результаты. Королёв оказался логическим продолжением алгоритма Палеха и предназначен для обслуживания длинного хвоста микрочастотных запросов, как правило, заданных на естественном языке. Особенностью таких запросов является то, что релевантные им документы могут не содержать многих слов, входящих в запрос. Это ставит в тупик традиционные текстовые алгоритмы ранжирования.

Решение было найдено в виде использования нейронных сетей, которые обучаются в том числе и на поведении пользователей. Поэтому новый алгоритм Яндекса работает на основе нейросети. Он учится на примерах пользовательских запросов, а ответы подбирает исходя из смысла текста на странице. Это означает, в частности, что он будет гораздо эффективнее работать с нестандартными запросами, когда пользователи сами не уверены, как называется то, что они хотят найти. Здесь многое зависит от вычислительной мощности.

В целом такой подход к решению задачи ранжирования длинного микрочастотного хвоста запросов не нов. Еще в 2015 году стало известно о технологии, используемой поисковой системой Google для поиска ответов на многословные запросы, заданные на естественном языке, — RankBrain. Эта технология, также основанная на машинном обучении, позволяет распознавать наиболее значимые слова в запросах и анализировать контекст, в котором осуществляется поиск. Это позволяет найти релевантные документы, которые не содержат всех слов запроса.

Кроме того, алгоритм работает и с картинками. Он анализирует содержимое изображения и на его основе выбирает нужный вариант, а не только из описания в тегах или окружающего его текста.

Однако длинный хвост микрочастотных многословных запросов на естественном языке вполне может заинтересовать «прожигателей» информационной семантики — создателей так называемых информационных сайтов «на все случаи жизни». В общем, они уже стараются удовлетворить как можно больше известных им запросов, которые им удается получить с помощью различных методов сбора семантики, организовать точное вхождение в свои тексты.Там же, где не будет точных вхождений, т.е. по запросам, не прососанным «смысловым пылесосом» создателей информационных сайтов или по которым они не смогли обеспечить точные вхождения в содержание, и начинается вотчина «Королева», которая предназначена для поиска совпадений между запросами и ответами в случае, когда между ними мало пересечений по ключевым словам. В таких случаях «Королев», несомненно, повысит требования к качеству контента, а действительно интересные читабельные статьи будут еще больше превосходить разбавленные водой сборники вхождений ключевых фраз, ведь именно в таких статьях и появляются полезные для нового алгоритма сигналы. можно содержать.Ну а всем остальным сеошникам можно совсем расслабиться — очередная порка откладывается. Жертв и разрушений нет.

Запустив Палех, Яндекс научил нейросеть преобразовывать поисковые запросы и заголовки веб-страниц в группы чисел — семантические векторы.

Важным свойством таких векторов является то, что их можно сравнивать друг с другом: чем сильнее сходство, тем ближе запрос и заголовок друг к другу по смыслу.

Чем отличается от «Палеха»?

Основным отличием нового алгоритма, помимо улучшения технической реализации, является возможность распознавать сходные «смыслы» по всему документу, а не только по заголовку (Title), появляющемуся в окне браузера.

Как работает алгоритм Королева

Алгоритм поиска «Королев» сравнивает семантические векторы поисковых систем запросы и целые веб-страницы — а не только их заголовки. Это позволяет выйти на новый уровень понимания смысла.

Как и в случае с «Палехом», тексты веб-страниц в смысловые векторы конвертируются нейросетью. Эта операция требует больших вычислительных ресурсов. Поэтому «Королев» вычисляет векторы страниц не в реальном времени, а заранее, на этапе индексации.

Когда человек запрашивает запрос, алгоритм сравнивает вектор запроса с уже известными ему векторами страниц.

Эффект Королёва

Умение понимать смысл особенно полезно при обработке редких и необычных запросов — когда люди пытаются своими словами описать свойства объекта и ожидают, что поиск подскажет его название.


Данная схема позволяет начать отбор веб-страниц, соответствующих запросу по смыслу, на ранних этапах ранжирования.В «Палехе» семантический анализ — один из завершающих этапов: через него проходят всего 150 документов. В «Королеве» изготовлено 200 000 документов.

Кроме того, новый алгоритм не только сравнивает текст веб-страницы с поисковым запросом, но и обращает внимание на другие запросы, по которым люди приходят на эту страницу.

Таким образом могут быть установлены дополнительные семантические связи.

Люди учат машины

Использование машинного обучения и особенно нейронных сетей рано или поздно научит поиск оперировать смыслами на человеческом уровне.Чтобы машина поняла, как решить ту или иную задачу, необходимо показать ей огромное количество примеров: положительных и отрицательных. Такие примеры приводят пользователи Яндекса.

Нейронная сеть, используемая алгоритмом Королёва, обучена обезличенной статистике поиска. Системы сбора статистики учитывают, на какие страницы пользователи переходят по тем или иным запросам и сколько времени они там проводят.

Если человек открывает веб-страницу и долго «висит» там, вероятно, он нашел то, что искал — то есть страница хорошо откликается на его запрос.Это положительный пример.

Отрицательные примеры подобрать гораздо проще: достаточно взять запрос и любую случайную веб-страницу. Статистика, которая используется для обучения алгоритма, анонимизирована

Matrixnet, который строит формулу ранжирования, также нуждается в помощи людей.

Толока

Чтобы поиск развивался, люди должны постоянно оценивать его работу. Когда-то выставлением оценок занимались только сотрудники Яндекса — так называемые асессоры . Но чем больше оценок, тем лучше — поэтому Яндекс всех к этому привлек и запустил сервис Яндекс.Толока. Сейчас зарегистрированных пользователей больше миллиона: они анализируют качество поиска и участвуют в улучшении других сервисов Яндекса. Задания на Толоке платные — рядом с заданием указана сумма, которую можно заработать. За более чем два года существования сервиса толокеры выдали около двух миллиардов оценок.

Сложные алгоритмы лежат в основе современного поиска.Алгоритмы придумывают разработчики, а учат миллионы пользователей Яндекса. Любой запрос — это анонимный сигнал, который помогает машине лучше понимать людей. Новый поиск — это поиск, который мы делаем вместе.

22 августа 2017 года Яндекс запустил новую версию поискового алгоритма — «Королев». Максимально кратко и емко можно описать его суть словами из пресс-релиза Яндекса:

Запуск алгоритма состоялся в Московском Планетарии и сопровождался отчетами разработчиков алгоритма, торжественным нажатием кнопки запуска и даже звонком на МКС и прямой трансляцией с космонавтами.

Полное видео презентации вы можете посмотреть прямо здесь, а ниже мы рассмотрим основные изменения и ответы на часто задаваемые вопросы. Мы будем сопровождать информацию комментариями сотрудников Яндекса в блоге компании, а также цитатами из официальных источников.

Что изменилось в поиске Яндекса?

Королёв — это продолжение алгоритма Палеха, представленного в ноябре 2016 года. «Палех» стал первым шагом к семантическому поиску, задача которого — лучше понять смысл страниц.

«Королев» теперь умеет понимать смысл всей страницы, а не только заглавного заголовка, как это было после анонса «Палеха».


Алгоритм должен улучшить результаты для редких и сложных запросов.

Документы могут содержать не так много слов запроса, поэтому традиционные алгоритмы релевантности текста не справляются с этой задачей.

Выглядит так:

Google имеет аналогичный алгоритм, RankBrain:

Область действия алгоритма Королева распространяется на все запросы, в том числе коммерческие.Однако эффект наиболее заметен именно на многословных запросах. Яндекс подтвердил, что алгоритм работает для всех запросов.

Конечно, целью алгоритма было улучшение качества выдачи для редких и сложных задач. Проверим редкие и сложные коммерческие запросы, связанные с названием предмета. Например, в этом случае Яндекс действительно понимает, о чем идет речь. Однако в результатах поиска в основном обзоры и статьи, а не коммерческие сайты.


И в этом случае поисковик понял, что меня скорее всего интересует дрон или квадрокоптер. Разумеется, выдача начинается с Яндекс.Маркета:


Но в некоторых случаях Яндекс бессилен…


Как это работает (+ 11 фото с презентации)

Давайте подробнее рассмотрим презентацию нового алгоритма. Ниже будут только выдержки самых интересных моментов с нашими комментариями и слайды из презентации.

Новая версия поиска на основе нейронной сети. Он состоит из большого количества нейронов. Нейрон имеет один выход и несколько входов, он может обобщать полученную информацию и после преобразования передавать ее дальше.


Нейронная сеть может выполнять гораздо более сложные задачи и может быть обучена понимать смысл текста. Для этого нужно привести ей множество обучающих примеров.

Яндекс начал работу в этом направлении с модели DSSM, которая состоит из двух частей, соответствующих запросу и странице.Результатом стала оценка того, насколько они близки по смыслу.


Для обучения нейронной сети нужно много обучающих примеров.


    Отрицательные — это пара текстов, не связанных по смыслу.

    Positive — пары «текст-запрос», связанные по смыслу.

Согласно презентации, Яндекс обучал массив данных о поведении пользователей в поисковой выдаче и считал запрос и страницу, на которую пользователи часто кликают в поисковой выдаче, родственными по смыслу.Но, как позже объяснил Михаил Сливинский, удовлетворенность пользователей результатами поиска измеряется не только кликами:


Как ранее в своей презентации о Палехе говорил Александр Садовский, наличие клика не означает, что документ актуален, а отсутствие не означает, что он не актуален. Модель Яндекса предсказывает, останется ли пользователь на сайте, и учитывает многие другие показатели удовлетворенности пользователей.

После обучения модель представляет текст в виде набора из 300 чисел — семантического вектора.Чем ближе тексты по смыслу, тем больше сходство векторных чисел.


Нейронные модели давно используются в поиске Яндекса, но алгоритм Королева усилил влияние нейросетей на ранжирование.

Теперь при оценке семантической близости алгоритм смотрит не только на заголовок, но и на текст страницы.

Параллельно Яндекс работал над алгоритмом сравнения значений запросов на основе нейронных сетей.Например, если для одного запроса поисковая система точно знает лучший ответ, а пользователь ввел запрос, очень близкий к нему, то результаты поиска должны быть похожими. В качестве иллюстрации такого подхода Яндекс приводит пример: «ленивый кот из Монголии» — «манул». ()


В Палехе нейронные модели использовались только на самых поздних этапах ранжирования, примерно для 150 лучших документов. Поэтому на первых этапах ранжирования часть документов терялась, а они могли быть хорошими.Это особенно важно для сложных и низкочастотных запросов.

Теперь вместо расчета семантического вектора при выполнении запроса Яндекс делает расчеты заранее — при индексации. «Королев» производит расчеты по 200 тыс. документов за один запрос, вместо 150, которые были ранее по «Палеху». Сначала этот способ предварительного расчета был опробован на «Палехе», это позволило сэкономить на мощности и найти соответствие запросу не только заголовка, но и текста.


Поисковик на этапе индексации берет полный текст, выполняет необходимые операции и получает значение. В результате для всех слов и популярных словосочетаний формируется дополнительный индекс со списком страниц и их предварительной релевантностью запросу.

Команда Яндекса, которая занималась дизайном и реализацией нового поиска, запускает его.



Запуск алгоритма:


Обучение искусственному интеллекту

Много лет в Яндексе задачей сбора данных для машинного обучения занимаются асессоры, которые оценивают релевантность документов запросу.С 2009 по 2013 год поисковик получил более 30 миллионов таких оценок.


За это время появился поиск по картинкам, по видео, внутренние классификаторы и алгоритмы: количество проектов Яндекса выросло.


Поскольку все они работали над технологиями машинного обучения, требовалось больше оценок и больше оценщиков. Когда асессоров стало больше 1500, Яндекс запустил краудсорсинговую платформу «Толока», где любой желающий может зарегистрироваться и выполнить задания.

Например, в Толоке встречаются такие задания:


Или такой:


Если вы хотите узнать больше о том, как пользователи оценивают релевантность ответов, чтобы понимать, какие параметры вопроса оцениваются, рекомендуем прочитать инструкции к заданиям или хотя бы попробовать пройти обучение.

За несколько лет в сервисе собралось более 1 млн человек, которые сделали более 2 млрд оценок.Это позволило Яндексу сделать огромный скачок вперед по масштабам и объему обучающих данных. Только в 2017 году задачи выполнили более 500 000 человек.


Среди задач:

  • Оценка актуальности документов;


Правила, которым Яндекс хочет научить алгоритм, открыты для всех зарегистрированных пользователей в виде инструкций для сотрудников Толока. Для некоторых задач просто собирается субъективное мнение людей.

Вот выдержка из инструкции, как Яндекс определяет актуальность документа:


Качество оценок очень важно для Яндекса. Оно может быть субъективным, поэтому задания даются сразу нескольким людям, а затем математическая модель оценивает распределение голосов с учетом степени доверия к каждому сотруднику и экспертизы каждого участника. Для каждого толокера данные о точности оценок по каждому проекту хранятся и объединяются в единый рейтинг.

Поэтому вы не можете пожаловаться на то, что предвзятость асессоров испортила ваш сайт.

Таким образом в Яндексе появилась дополнительная группа факторов:

  • Значение страницы и ее релевантность запросу;
  • Является ли документ хорошим ответом на аналогичные запросы пользователей.

Что изменилось в топе Яндекса?

Алгоритм предположительно был запущен чуть раньше презентации и, по данным сторонних сервисов (например, https://tools.pixelplus.ru/updates/yandex), изменения в результатах начались в начале августа, но неизвестно, связано ли это с «Королевым».




На основании этих данных можно предположить, что снижение доли главных страниц в топ-100 и уменьшение возраста документов в топ-100 связано с новым алгоритмом, помогающим получать более релевантные ответы.

Однако при этом заметных изменений в топ-10, топ-20 или топ-50 не происходит.Возможно, их нет или они незначительны. Мы также не заметили существенных изменений в результатах поиска по продвигаемым запросам.

Актуальность текста в стандартном понимании никуда не делась. Коллекции и более широкие ответы на подробные запросы содержат большое количество страниц с вхождениями слов запроса в заголовке и тексте:


Актуальность результатов поиска тоже имеет значение. Пример из презентации Яндекса содержит ряд последних результатов с полной поисковой фразой.



Хотя, учитывая тот факт, что алгоритм производит расчеты сразу при индексации, «Королев» теоретически может влиять на смешивание результатов быстрым роботом.

Нужно ли как-то оптимизировать тексты под Королев?

Как раз наоборот: чем больше поисковая система учится определять смысл текста, тем меньше требуется ввода ключевых слов и тем больше требуется смысла. Но принципы оптимизации не меняются.


Например, еще в 2015 году Google рассказал об алгоритме RankBrain, который помогает поисковым системам лучше реагировать на подробные запросы на естественном языке. Он хорошо работает, что было отмечено пользователями в многочисленных публикациях, сравнивающих поиск Яндекс и Google после анонса новой версии алгоритма.


Это не сопровождалось масштабной презентацией и не сильно повлияло на работу специалистов. Целенаправленно «оптимизацией под RankBrain» никто не занимается, поэтому в Яндексе это работу специалиста глобально не меняет.Да, есть тенденция искать и включать в текст так называемые LSI-ключи, но это явно не просто часто повторяющиеся слова на страницах конкурентов. Ожидаем развития SEO-сервисов в этом направлении.

В алгоритме также указано, что он анализирует значение других запросов, по которым пользователи попадают на страницу. Опять же, в долгосрочной перспективе это должно давать такие же или похожие результаты для синонимичных запросов, так как теперь результат анализа результатов иногда показывает отсутствие пересечений для синонимичных запросов в результатах.Надеемся, алгоритм поможет устранить такие несоответствия.

Но Яндекс по-прежнему не может найти (или плохо находит) документы, близкие по смыслу к запросу, но вообще не содержащие слова запроса ().


Консультация:

    Убедитесь, что страница отвечает на запросы, для которых она оптимизирована и по которым просматриваются пользователи.

    Убедитесь, что на странице есть условия поиска. О прямых вхождениях речь не идет, просто проверьте, есть ли на странице слова из запросов в любом виде.

    Тематические слова могут повысить релевантность страницы, но это явно не просто часто повторяющиеся слова на страницах конкурентов. Ожидаем развития SEO-сервисов в этом направлении.

    Для ключевых фраз, которые хорошо находят страницу сайта, проверьте, выходит ли показатель отказов за пределы среднего показателя сайта. Если по запросу сайт находится на высоких позициях и пользователь находит то, что ему нужно, сайт может быть показан по похожим ключевым фразам (если они есть).

    Поисковые клики означают удовлетворенность пользователя результатом.Это не ново, но стоит еще раз проверить сниппеты на наличие ключевых слов. Возможно, где-то удастся повысить кликабельность.

Как проверить влияние алгоритма на ваш сайт?

Для сайтов, не имеющих ярко выраженной сезонности, можно сравнить количество низкочастотных ключевых фраз, которые использовались для перехода на сайт до запуска алгоритма и после. Например, возьмите неделю в июле и неделю в августе.


Выберите «Отчеты — Стандартные отчеты — Источники — Поисковые запросы».

Отбор посещений от Яндекса:

И фильтр оставляет только те запросы, по которым был 1 переход. Дополнительно стоит исключить словосочетания, содержащие название бренда.



Вы также можете увидеть наличие поисковых фраз, слов которых нет у Вас в тексте. В целом такие фразы и раньше присутствовали среди низкочастотных запросов, но сейчас их может стать заметно больше.

Перспективы и прогноз

    Поисковик сможет еще лучше найти документы, близкие по смыслу к запросу.Наличие вхождений станет еще менее важным.

    Персонализация будет добавлена ​​к текущему алгоритму.

    В долгосрочной перспективе хорошие материалы, отвечающие на вопрос пользователя, могут получить еще больше трафика по микрочастотным, редким или семантически схожим запросам.

    Конкуренция за низкочастотные ключевые слова может возрасти из-за большей релевантности неоптимизированных документов.

    Гипотеза. Используя такие алгоритмы, Яндекс может лучше оценивать, насколько семантически связаны страницы, ссылающиеся на другие, и учитывать это при оценке внешних ссылок.Если это может быть существенным фактором, учитывая слабое влияние ссылок в Яндекс.

    Следует ожидать дальнейших изменений, связанных с нейросетями в других сервисах Яндекса.

Вопрос-ответ

Вопрос : раз Яндекс оценивает клики, значит ли это, что продвижение по поведенческим факторам будет набирать обороты?


Вопрос : Связан ли Королев с Баден-Баденом?


Вопрос : как включить новый поиск Яндекса?

Ответ : На блоге Яндекса и в поисковых запросах мы часто сталкивались с вопросами о том, как включить или настроить новый поиск. Ни в коем случае … Новый алгоритм уже работает и никаких дополнительных настроек делать не нужно.

7 апреля 2017 г. — алгоритм Баден-Бадена — режим хоста
С этого момента за наличие признаков переоптимизации на некоторых страницах возможен даунгрейд всего сайта. В панели Я.Вебмастера появились сообщения о даунгрейде за поисковый спам.

23 марта 2017 г. — Алгоритм Баден-Бадена — режим страницы
Встроенный в ядро ​​алгоритма поиска фильтр, понижающий результаты страниц с переоптимизированным текстом.На начальном этапе фильтр опускал отдельные страницы; также были случаи срабатывания фильтра перед запросом.

2 ноября 2016 г. — Алгоритм Палеха
Формула ранжирования, которая «умеет» находить совпадения между поисковым запросом и документом, даже если сам документ не содержит фразы из запроса. На момент запуска работает только для титульных страниц.

8 июня 2016 г. — обновление алгоритма расчета тИЦ
Отныне тематический индекс цитирования рассчитывается по новым правилам на основе качества и тематического соответствия ссылающихся страниц.

2 февраля 2016 — запуск алгоритма Владивосток
Изменение алгоритма ранжирования в результатах мобильного поиска. Яндекс начинает учитывать оптимизацию сайтов для мобильных устройств. Теперь результаты поиска на стационарных и мобильных устройствах могут отличаться, а приоритет в результатах мобильного поиска будет отдан тем сайтам, которыми удобно пользоваться с мобильных устройств.

30 декабря 2015 г. – фильтр для кликджекинга
Понижение рейтинга сайтов, использующих кликджекинг (невидимые элементы, с которыми пользователь взаимодействует, не подозревая об этом).

ноябрь 2015 г. (точная дата неизвестна) — включение коэффициента связи
В рамках выступления на Школе для веб-мастеров представители Яндекса сообщили, что ранжирование ссылок снова работает по ряду тем в Москве. В результате

2 октября 2015 г. — фильтр «Опасные сайты»
Понижение в рейтинге сайтов, представляющих угрозу для компьютера пользователя. Ранее такие сайты не понижались в рейтинге, а просто помечались специальной отметкой.

сентябрь-ноябрь 2015 — Алгоритм Кирова. Многорукие бандиты Яндекса
Рандомизация выдачи. Подмешивание молодых сайтов в ТОП трастовых «старожилов», чтобы дать последним возможность накапливать ПФ. С этого момента возраст сайта перестал играть ключевую роль в поисковой оптимизации.

08.09.2015 — запуск обновленного фильтра АГС
Направлен на ограничение рейтинга сайтов, которые злоупотребляют размещением ссылок SEO, независимо от качества.Ограничения сопровождаются отменой ОТК. По мнению Яндекса, чтобы выйти из-под санкций, достаточно отказаться от размещения на сайте SEO-ссылок.

23.06.2015 — третья волна «Минусинск»
Третья волна понижения рейтинга сайтов по SEO-ссылкам.

27 мая 2015 г. — Вторая волна понижения SEO-ссылок
Вторая волна первой итерации Минусинска, пострадало около 200 сайтов; по показателям участки не отличались от пострадавших в первой волне.

15 мая 2015 г. — Первая волна понижения SEO-ссылок
В результате первой итерации минусинского фильтра 488 сайтов были понижены в рейтинге за использование SEO-ссылок. Яндекс продолжает призывать всех веб-мастеров отказаться от использования SEO-ссылок — созданных для влияния на поисковик. Подробнее об официальных результатах Минусинска.

15.04.2015 — анонс нового алгоритма «Минусинск»
На конференции Bynet Week в Минске Александр Садовский сообщил о выпуске нового алгоритмического фильтра Яндекса «Минусинск», направленного на борьбу со ссылочным спамом.После анонса 9 тысяч сайтов получили уведомления с рекомендацией отказаться от использования SEO-ссылок и других некорректных методов продвижения.

1 апреля 2015 г. — Амстердам
Изменения на странице выдачи — справа от результатов поиска появился блок с общей информацией о теме запроса.

30.12.2014 — очередная волна пессимизации продвижения ПФ
Помимо читеров, под раздачу попали сайты так называемого «Живого щита» — ресурсов, которые использовались для накрутки поведенческих ресурсов без ведома их владельцев, с целью запутать алгоритмы Яндекса.

1 декабря 2014 — волна пессимизации по продвижению ОФ
Понижен рейтинг тысяч сайтов, которые накручивают рефералы из результатов поиска. Также впервые были пессимизированы ресурсы, которые использовали так называемое «усиление ссылок» — втыкание купленных ссылок с целью улучшения передачи ссылочного веса.

19.09.2014 — волна понижений за агрессивную рекламу
Ужесточение санкций против сайтов с отвлекающей рекламой.Релиз вышел с ошибкой — пессимизировано большое количество белых сайтов, где нормальные рекламные блоки заменены на агрессивные с помощью браузерных вирусов. Позже эта ошибка была исправлена.

14.09.2014 — изменение формулы ранжирования информационных сайтов
Ужесточение алгоритма для некоммерческих ресурсов. Очередная волна снижения видимости информационных ресурсов из-за отсутствия добавленной стоимости контента.

2-5 июня 2014 г. — Острова
Экспериментальный редизайн результатов поиска.Ответы на некоторые запросы можно было увидеть прямо на странице результатов поиска, не переходя на сайт. Через некоторое время разработчики признали, что эксперимент провалился.

15.04.2014 — изменения в алгоритме АГС
С этого момента, когда сайт попадает под АГС, количество его страниц в индексе не уменьшается. Знак AGS теперь является обнулением TCI.

20 марта 2014 г. — Снижение видимости сайтов с шокирующей рекламой
Сайты, размещающие тизерную и другую отвлекающую рекламу, стали терять позиции в результатах поиска.В раздачу попали ресурсы, которые монетизировались за счет рекламных блоков с эротическими картинками, кадрами из фильмов ужасов, изображениями частей тела с избыточным весом и другой неприятной рекламой.

12.03.2014 — Алгоритм Началово. Первый этап отвязки
Обновление формулы ранжирования ссылок по коммерческим запросам (Москва) в темах «Недвижимость», «Туризм», «Электроника и бытовая техника».

5 декабря 2013 г. — несвязанное объявление рейтинга
Руководитель отдела веб-поиска Александр Садовский на конференции в Москве сообщил, что Яндекс готовит новую формулу ранжирования, в которой отсутствуют ссылочные факторы.Алгоритм обещали запустить в начале 2014 года и только для коммерческих запросов в Москве.

6 ноября 2013 г. — АГС 40
Обновлен набор индикаторов некачественного контента. Основной причиной фильтра было отсутствие добавленной стоимости на сайте. Фильтр в основном затронул МФА-сайты и ресурсы, созданные для монетизации через партнерские программы, и стал полностью автоматизированным.
из предыдущих версий фильтра.

30 мая 2013 г. — Дублинский алгоритм
Еще один шаг к персонализации результатов поиска.Теперь результаты поиска подстраиваются под интересы пользователя прямо во время поисковой сессии.

16.05.2013 — анонс платформы «Острова»
Яндекс впервые рассказал о новой поисковой платформе «Острова». Предполагалось кардинально изменить формат выдачи, при котором пользователь мог решить свою проблему прямо на странице поиска, не заходя на сайт (заказать еду, забронировать отель, купить билеты).
Острова планировалось выкатить за полтора-два месяца, но по неизвестным причинам этот момент постоянно откладывался.26 июля 2013 года на Beta.yandex.ru была запущена тестовая версия «Острова».

15 мая 2012 г. — пессимизация сайтов с вводящими в заблуждение всплывающими элементами
Сайты со всплывающими окнами, заточенными под системные уведомления или сообщения из социальных систем, стали автоматически уменьшаться в результатах поиска.

16 февраля 2012 г. — региональный выпуск для J. Pictures
Разные ответы для России, Украины, Беларуси и Казахстана.

7 февраля 2012 г. — персонализация подсказок для зарегистрированных пользователей
Яндекс начинает учитывать историю запросов пользователей при формировании подсказок в строке поиска.Еще один шаг к персонализации результатов поиска.

12 декабря 2012 г. — Калининград. Персонализация результатов поиска
Попытка настроить Топ-10 и поисковые подсказки для каждого пользователя на основе истории его запросов и поведения в поисковой выдаче. Согласно исследованию Калининградской платформы, объемы трафика старых трастовых сайтов выросли. А вот продвигать молодые ресурсы в личном поиске привычными методами стало сложнее.

23 ноября 2011 г. — новый алгоритм для коммерческих сайтов
Формула ранжирования дополнена коммерческими факторами: юзабилити сайта, ассортиментом, ценами, сервисом и т.д.Изначально выпуск был запущен для московского номера, со временем распространился и на другие регионы.

5 октября 2011 г. — Яндекс начинает рассматривать юзабилити
С этого момента перенасыщенные рекламой сайты автоматически опускаются в результатах поиска, а ресурсы с неудобной навигацией начинают испытывать проблемы при продвижении.

13 сентября 2011 г. — Вы спам-фильтр
Санкции за переспам. Первый фильтр Яндекса, учитывающий PF (сокращались только те спам-тексты с низкими поведенческими показателями).Изначально фильтр зависел от запроса и применялся к отдельным страницам.

17 августа 2011 г. — Рейкьявик
Построение результатов поиска на основе языковых предпочтений пользователя. Первый шаг к персонализации результатов поиска на уровне конкретного посетителя.

Май 2011 — первая волна ручной пессимизации сайтов для продвижения ПФ
Понижены позиции известных SEO-компаний и их клиентов. 23 мая в блоге Яндекса появилось официальное предупреждение.

17 декабря 2010 г. — новая формула ранжирования для геозависимых запросов
В каждом регионе сайты, связанные с этим регионом, получили привилегию. Стало проблематично продвигать один сайт в нескольких регионах.

15 декабря 2010 г. — Краснодар. Реализация «Спектр» в выпуске
Разделение сайтов на 60 смысловых категорий. Принцип квотирования сайтов из разных категорий в результатах поиска по общим запросам. Результаты поиска ВЧ стали более разнообразными — в Топ-10 по ВЧ общего назначения можно было найти интернет-магазин, энциклопедию и форум (технология «Спектр»).
Приоритет поведенческих факторов (действий пользователя на странице поисковой выдачи).

2 ноября 2010 г. — Улучшено ранжирование текстов об авторских правах
Изменения в алгоритме авторства документа.

13.09.2010 — Обнинск
Улучшено определение региональности сайтов. В выдаче гео-запросов преимущество получили сайты без привязки к региону.
Изменилось отношение к коммерческим ссылкам. Наложение «временного фильтра» на коммерческие ссылки — донор начинает передавать вес акцептору только через 2-4 месяца после появления ссылки.

17.03.2010 — Снежинск 1.1
Обновление формулы ранжирования для запросов NGZ. Приоритет в выдаче отдавался некоммерческим сайтам — энциклопедиям, обзорам.

20.01.2010 — Яндекс портной фильтр
Санкции за длинные тексты («портянки»), заспамленные ключевыми словами. Фильтр применялся к отдельным страницам и лечился уменьшением текста в несколько раз (при этом плотность ключевых слов могла оставаться на том же уровне). Tailor’s Filter — предшественник алгоритма You’re Spam, появившегося в 2012 году.

22.12.2009 — Конаково
1250 городов России получили местный рейтинг.

18 декабря 2009 г. — АГС 30
Увеличилось количество факторов, влияющих на решение алгоритма исключить сайт из индекса. С этого момента под фильтры стали попадать псевдоSDL — сайты с технически уникальным контентом, но не интересным для пользователей.
Фильтр можно было применять как вручную, так и автоматически.

17 ноября 2009 г. — Снежинск.Первый алгоритм на платформе MatrixNET
19 городов получили региональную выдачу. Количество параметров, учитываемых при ранжировании документов, увеличилось до нескольких тысяч. В формуле появились поведенческие факторы.
Изменился принцип ранжирования коммерческих запросов. Качество сайта в целом стало играть большую роль, чем релевантность отдельной страницы.
Яндекс научился отличать коммерческие ссылки от некоммерческих на основе анализа анкоров (Мадридский отчет).

28.09.2009 — Фильтр АГС 17
Первое официальное упоминание о данном фильтре, который, по данным Яндекса, работает с 2006 года.
Симптом фильтра — в результатах поиска остается от 1 до 10 страниц сайта. Первый релиз коснулся в основном автоматически наполняемых ресурсов и сайтов с неуникальным контентом.

20.08.2009 — Арзамас 1.2. Запрос классификатора геозависимости
Разделение запросов на геозависимые и геонезависимые.Приоритет старых трастовых сайтов в поисковой выдаче. В основном морды показаны в топах GEO.

11 августа 2009 г. — понижение версии сайтов с системой clickunder
Продолжение войны с агрессивной рекламой началось 30 апреля.

24 июня 2009 г. — Арзамас 1.1.
Улучшена формула ранжирования регионов России, за исключением Москвы и Санкт-Петербурга. Росло значение возраста домена. В выдаче были замечены страницы с текстовыми портянками и небольшим количеством обратных ссылок.

30 апреля 2009 г. — начало войны с агрессивной рекламой
Яндекс начал искусственно занижать страницы с попандер-баннерами в результатах поиска.

8 апреля 2009 г. — Арзамас (Анадырь). Региональный выпуск
Москва, Санкт-Петербург, Украина, Беларусь и Казахстан получили региональную выдачу. Спустя почти 3 месяца в панели Я.Вебмастер появилась возможность привязать сайт к региону.
При ранжировании запросов с неоднозначным значением учитывалась история поисковых запросов.
Подмешивание изображений в результаты поиска по некоторым запросам.

11 сентября 2008 г. — Находка
Увеличение веса внутренних страниц — в выдаче СЧ и некоторых высоких частот, параллельно с мордами появились внутренние плавники.
Морфологические изменения, отличия в выдаче по запросу в единственном и множественном числе.
Подмешивание информационных сайтов в результаты поиска по коммерческим запросам. Википедия в поисковой выдаче.

28 августа 2008 г. — изменения в алгоритме TCI
Нововведение коснулось сайтов, накручивающих ОТК по специальным схемам.Примерно для 15% сайтов показатель TCI упал до 0-10.

2 июля 2008 г. — Магадан 2.0
Большое значение получил фактор уникальности текстов. Яндекс научился иначе определять и ранжировать коммерческие запросы. Значение возраста сайта было снижено.

16 мая 2008 г. — Магадан
Первый названный алгоритм Яндекса. Выдача информационных запросов. Яндекс научился расшифровывать аббревиатуры и транслитерацию.
Это первый алгоритм, который тестировался вебмастерами на buki.yandex.ru почти месяц перед выкатом в основной поиск (с 14 апреля).

04.04.2008 — появление документов на иностранном языке для выдачи
Яндекс начинает поиск в зарубежном интернете, англоязычные сайты перепутаны в результатах.

18 марта 2008 г. — атака SEO-ссылок
Ссылки с домашних страниц худеют. Массовая просадка сайтов, оставшихся в топе из-за ссылок с морды.Ссылки с внутренних страниц продолжают работать.

5 февраля 2008 г. — «Гости из прошлого» или «Непот в тумане»
Отменить очистку фильтра nepot. Ссылки с сайтов, находящихся под непотом, получили минимальный вес (близкий к нулю). С этого момента определить «неважные» сайты с помощью меток в анкорах стало невозможно.
Название алгоритма взято из ветки форума на Serch.

17 января 2008 г. — G8 SP 1
Отношение к внешним ссылкам меняется.Уменьшение веса ссылок с «морд». Вебмастера массово переходят на покупку ссылок с внутренних страниц-доноров.

7 августа 2007 г. — «Родео»
Новая формула ранжирования для однословных запросов. Главные страницы («морды») получили приоритет для однословников в поисковой выдаче.
Алгоритм получил свое название от объявления, опубликованного на Forum.Searchengines.ru Александром Садовским.

2 июля 2007 г. — изменена формула рейтинга
Алгоритм стал зависимым от запроса — стали использоваться разные формулы ранжирования для однословных и многословных запросов.
Яндекс впервые анонсировал свой алгоритм и дал возможность веб-мастерам оставлять свои отзывы.
Объявлено на Forum.Searchengines.ru Александром Садовским.

2005 — Непот фильтр
Внешние ссылки с сайтов, занимающихся активной торговлей ссылками, перестали передавать вес. Оптимизаторы начинают использовать якорные теги для идентификации неважных сайтов.

Что нового у Яндекса в поисковых алгоритмах. Новый алгоритм Яндекса «Королев

22 августа 2017 года Яндекс запустил новую версию алгоритма поиска — Королев.Максимально кратко и емко можно описать его суть словами из пресс-релиза Яндекса:

Запуск алгоритма состоялся в Московском планетарии и сопровождался отчетами разработчиков алгоритма, торжественным нажатием кнопки запуска и даже звонком на МКС и прямой трансляцией с космонавтами.

Полное видео презентации можно посмотреть прямо здесь, а ниже мы рассмотрим основные изменения и ответы на часто задаваемые вопросы.Мы будем сопровождать информацию комментариями сотрудников Яндекса в блоге компании, а также цитатами из официальных источников.

Что изменилось в поиске Яндекса?

Королёв — это продолжение алгоритма Палеха, представленного в ноябре 2016 года. Палех стал первым шагом к семантическому поиску, задача которого — лучше понять смысл страниц.

Королев теперь умеет понимать смысл всей страницы, а не только заголовка, как это было после объявления Палеха.


Алгоритм должен улучшить вывод для редких и сложных запросов.

Документы могут содержать не так много слов запроса, поэтому традиционные алгоритмы определения релевантности текста не справятся с этой задачей.

Выглядит примерно так:

Google использует аналогичный алгоритм — RankBrain:

Область действия алгоритма Королева распространяется на все запросы, в том числе и коммерческие. Однако эффект наиболее заметен именно на многословных запросах.Яндекс подтвердил, что алгоритм работает на всех поисковых запросах.

Конечно, целью алгоритма было улучшение качества вывода по редким и сложным проблемам. Мы проверим редкие и сложные коммерческие запросы, связанные с названием товара, например, в этом случае Яндекс действительно понимает, о чем идет речь. Однако в выдаче в основном обзоры и статьи, а не коммерческие сайты.


И в этом случае поисковик понял, что меня скорее всего интересует дрон или квадрокоптер.Разумеется, выдача начинается с Яндекс.Маркета:


Но в некоторых случаях Яндекс бессилен…


Как это работает (+ 11 фото с презентации)

Рассмотрим подробнее представление нового алгоритма. Ниже только выдержки наиболее интересных моментов с нашими комментариями и слайды из презентации.

Новая версия поиска на основе нейронной сети. Он состоит из большого количества нейронов.Нейрон имеет один выход и несколько входов, он может обобщать полученную информацию и после преобразования передавать ее дальше.


Нейронная сеть может выполнять гораздо более сложные задачи и может быть обучена понимать смысл текста. Для этого приведите ей много воспитательных примеров.

Яндекс начал работу в этом направлении с модели DSSM, которая состоит из двух частей, соответствующих запросу и странице. Результатом стала оценка того, насколько они близки по смыслу.


Для обучения нейронной сети необходимо много обучающих примеров.


    Негатив — это пара текстов, не связанных по смыслу.

    Positive — пары текст-запрос, связанные по смыслу.

Согласно презентации, Яндекс использовал массив данных о поведении пользователей в поисковой выдаче для обучения и посчитал запрос и страницу, на которую пользователи часто кликают в поисковой выдаче, родственными по смыслу. Но, как позже объяснил Михаил Сливинский, удовлетворенность пользователей результатами поиска измеряется не только кликами:


Как ранее в презентации Палеха говорил Александр Садовский, наличие клика не означает, что документ актуален, а отсутствие не актуально.Модель Яндекса предсказывает, задержится ли пользователь на сайте, и учитывает многие другие показатели удовлетворенности пользователей.

После обучения модель представляет текст в виде набора из 300 чисел — семантического вектора. Чем ближе тексты по смыслу, тем больше сходство номеров векторов.


В поиске Яндекс давно используются нейромодели, но в алгоритме Королёва усилилось влияние нейросетей на ранжирование.

Теперь при оценке семантической близости алгоритм смотрит не только на заголовок, но и на текст страницы.

Параллельно Яндекс работал над алгоритмом сравнения значений запросов на основе нейросетей. Например, если для одного запроса поисковая система точно знает лучший ответ, а пользователь ввел очень близкий к нему запрос, то результаты поиска должны быть похожими. Яндекс приводит пример, иллюстрирующий такой подход: «ленивый кот из Монголии» — «манул».()


В Палехе нейронные модели применялись только на самых последних этапах ранжирования, примерно для 150 лучших документов. Поэтому на первых этапах ранжирования часть документов терялась, а они могли быть хорошими. Это особенно важно для сложных и низкочастотных запросов.

Теперь вместо расчета семантического вектора при выполнении запроса Яндекс делает расчеты заранее — при индексации. «Королев» ведет расчеты по 200 тысяч документов за один запрос, вместо 150, которые были ранее у «Палеха».Сначала такой способ предварительного расчета был опробован в Палехе; это позволило сэкономить на мощности и найти соответствие не только заголовку, но и тексту.


Поисковик на этапе индексации берет полный текст, выполняет необходимые операции и получает значение. В результате формируется дополнительный индекс для всех слов и популярных словосочетаний со списком страниц и их предварительной релевантностью запросу.

Команда Яндекса, разрабатывавшая и внедрявшая новый поиск, запускает его.



Алгоритм запуска:


Обучение искусственному интеллекту

В Яндексе уже много лет задачей сбора данных для машинного обучения занимаются асессоры, которые оценивают релевантность документов запросу. С 2009 по 2013 год поисковик получил более 30 миллионов таких оценок.


За это время появился поиск по картинкам, видео, внутренним классификаторам и алгоритмам: количество проектов Яндекса выросло.


Поскольку все они работали над технологиями машинного обучения, требовалось больше оценок и больше оценщиков. Когда асессоров стало больше 1500, Яндекс запустил краудсорсинговую платформу «Толока», где любой желающий может зарегистрироваться и выполнять задания.

Например, в Толоке встречаются такие задания:


Или такой:


Если вы хотите узнать больше о том, как пользователи оценивают релевантность ответов, чтобы понять, какие параметры доставки оцениваются, рекомендуем прочитать инструкции к заданиям или даже попробовать пройти обучение.

За несколько лет сервис собрал более 1 млн человек, которые сделали более 2 млрд оценок. Это позволило Яндексу сделать огромный скачок в масштабировании и объеме обучающих данных. Только в 2017 году задачи выполнили более 500 000 человек.


Среди задач:

  • Оценка актуальности документов;


Правила, которым Яндекс хочет научить алгоритм, открыты для всех зарегистрированных пользователей в виде инструкций для сотрудников Толока.Для некоторых задач просто собирается субъективное мнение людей.

Вот выдержка из инструкции, как Яндекс определяет актуальность документа:


Яндексу очень важны качественные оценки. Оно может быть субъективным, поэтому задания даются сразу нескольким людям, а затем математическая модель оценивает распределение голосов с учетом степени доверия к каждому сотруднику и экспертизы каждого участника. Для каждого «толокера» данные о точности оценок по каждому проекту сохраняются и суммируются в единый рейтинг.

Именно поэтому вы не можете пожаловаться на то, что предвзятость асессоров испортила ваш сайт.

Таким образом в Яндексе появилась дополнительная группа факторов:

  • Смысл страницы и ее соответствие запросу;
  • Является ли документ хорошим ответом на похожие запросы пользователей.

Что изменилось в топе Яндекса?

Алгоритм якобы был запущен чуть раньше презентации и, по данным сторонних сервисов (например, https://tools.pixelplus.ru/updates/yandex), изменения в выдаче начались в начале августа, но неизвестно, связано ли это с алгоритмом Королева».




По этим данным можно предположить, что снижение доли главных страниц в топ-100 и уменьшение возраста документов в топ-100 связаны с новым алгоритмом, помогающим получать более релевантные ответы.

Однако в топ-10, топ-20 и топ-50 заметных изменений нет.Возможно, их нет или они незначительны. Существенных изменений в выдаче продвигаемых запросов мы также не заметили.

Актуальность текста в стандартном понимании не исчезла. Сборники и более широкие ответы на подробные запросы содержат большое количество страниц с вхождениями слов запроса в заголовке и тексте:


Свежесть результатов поиска тоже имеет значение. Пример из презентации Яндекса содержит ряд свежих результатов с искомой фразой целиком.



Хотя, учитывая тот факт, что алгоритм производит вычисления сразу после индексации, Королев теоретически мог влиять на смешивание результатов быстрым ботом.

Нужно ли как-то оптимизировать тексты под Королёв?

Как раз наоборот: чем больше поисковик учится определять смысл текста, тем меньше требуется вхождений ключевых слов и тем больше требуется смысла. Но принципы оптимизации не меняются.


Например, еще в 2015 году Google рассказал об алгоритме RankBrain, который помогает поиску лучше реагировать на подробные запросы, заданные на естественном языке. Он хорошо работает, что отмечают пользователи в многочисленных публикациях, сравнивающих поиск Яндекса и Google после анонса новой версии алгоритма.


Это не сопровождалось масштабной презентацией и существенно не повлияло на работу специалистов. Целенаправленно «оптимизацией под RankBrain» никто не занимается, поэтому даже в Яндексе это глобально работу специалиста не меняет.Да, появилась тенденция искать и включать в текст так называемые LSI-ключи, но это явно не просто часто повторяющиеся слова на страницах конкурентов. Надеемся на развитие SEO-сервисов в этом направлении.

В алгоритме также указано, что он анализирует значение других запросов, по которым пользователи попадают на страницу. Опять же, в дальнейшем это должно давать такой же или аналогичный вывод для синонимичных запросов, так как сейчас результат анализа выдачи иногда показывает, что пересечений для синонимичных запросов в выводе нет.Надеемся, алгоритм поможет устранить такие несоответствия.

Но Яндекс по-прежнему не может найти (или находит плохо) документы, близкие по смыслу к запросу, но вообще не содержащие слова запроса ().


Консультация:

    Убедитесь, что страница отвечает на запросы, для которых она оптимизирована и на которые нажимают пользователи.

    Убедитесь, что на странице по-прежнему есть слова из поисковых запросов. Мы не говорим о прямых вхождениях, просто проверяем, есть ли слова из запросов в любом виде на странице.

    Тематические слова могут повысить релевантность страницы, но это явно не просто часто повторяющиеся слова на страницах конкурентов. Надеемся на развитие SEO-сервисов в этом направлении.

    По ключевым фразам, по которым страница сайта хорошо просматривается, проверьте, не выбивается ли показатель отказов из среднего по сайту. Если по запросам сайт находится на высоких позициях и пользователь находит то, что ему нужно, сайт может отображаться по похожим ключевым фразам (если они есть).

    Поисковые клики означают удовлетворенность пользователя результатом. Это не ново, но стоит еще раз проверить сниппеты по ключевым запросам. Возможно где-то получится повысить кликабельность.

Как проверить действие алгоритма на вашем сайте?

Для сайтов, не имеющих ярко выраженной сезонности, можно сравнить количество низкочастотных ключевых фраз, используемых для перехода на сайт до и после запуска алгоритма. Например, возьмите неделю в июле и неделю в августе.


Выбираем «Отчеты — Стандартные отчеты — Источники — Поисковые запросы».

Отбираем посещения с Яндекса:

И фильтр оставляет только те запросы, по которым был 1 переход. Кроме того, следует исключить фразы, содержащие название бренда.



Вы также можете посмотреть на наличие поисковых фраз, слов которых нет у вас в тексте. В общем, такие фразы и раньше присутствовали среди низкочастотных запросов, просто сейчас их может стать заметно больше.

Перспективы и прогноз

    Поисковик может еще лучше находить документы, близкие по смыслу запросу. Наличие записей станет еще менее важным.

    Персонализация будет добавлена ​​к текущему алгоритму.

    В будущем хорошие материалы, отвечающие на вопрос пользователя, могут получать еще больше трафика по микрочастотным, редким или семантически схожим запросам.

    По низкочастотным ключевым фразам конкуренция может возрасти из-за большей релевантности неоптимизированных документов.

    Гипотеза. Используя такие алгоритмы, Яндекс может лучше оценивать, как семантически связанные страницы ссылаются на другие, и учитывать это при оценке внешних ссылок. Если это может быть существенным фактором, учитывая слабое влияние ссылок в Яндекс.

    Следует ожидать дальнейших изменений, связанных с нейросетями в других сервисах Яндекса.

Вопрос-ответ

Вопрос : раз Яндекс подсчитывает клики, значит ли это, что накрутка поведенческих факторов будет набирать обороты?


Вопрос : Связан ли Королев с Баден-Баденом?


Вопрос : как включить новый поиск яндекс?

Ответ : На блоге Яндекса и в поисковых запросах часто возникали вопросы о том, как включить или установить новый поиск. Ни в коем случае . Новый алгоритм уже работает и никаких дополнительных настроек делать не нужно.

Королев не Минусинск, не Баден-Баден. Это не карательный фильтр. Кстати, это не надстройка — это часть основного алгоритма Яндекса.

Королёв работает на основе самообучающейся нейронной сети и затрагивает достаточно редкие многословные запросы, в первую очередь информационные, которые направлены на уточнение смысла низкочастотных (НЧ) и микро-НЧ, включая голосовой поиск, различные естественные варианты запроса, такие как «фильм, где мужчина в другой обуви.»

Этот алгоритм создан с целью повышения качества выдачи по таким запросам, по аналогии с RankBrain от Google, который давно занимается этой задачей, и даже сейчас по первым замерам работает лучше на таких запросах чем яндекс.

До этого был и есть алгоритм Палеха, который уже начал искать по смыслу, но делал это в реальном времени и сопоставлял только смысл запроса и заголовок — Заголовок страницы.

Королёв анализирует не только Заголовок, а всю страницу в целом, показывает даже те страницы, где нет упоминания слов из запроса, но смысл страницы подходит.При этом определяет суть страницы заранее, на этапе индексации — в результате резко увеличилась скорость и количество обрабатываемых страниц.

Насчет «третьего» тут можно преувеличить — реальную долю запросов, которых коснется Королев, еще никто не измерял.

Другие статьи о Королеве:

Многие моменты я тут не расписал, о них стоит почитать в других статьях. Я выбрал здесь только лучшее, действительно стоящее:

Мнения различных экспертов:

Дополнительные официальные источники:

Некоторые выдержки из отзывов по ссылкам выше:

Дмитрий Шахов

Королёв пройдет мимо поисковой оптимизации.По крайней мере, на данном этапе. Перед поиском ставится задача дать ответы на запросы, по которым нет документов с записями. Поиск решает эту проблему. Колибри в гугле, Палех и Королев в яндексе. Запросы, по которым нет документов, не входят в сферу интересов поисковой оптимизации. Поэтому и нет документов.

Артур Латыпов

Многие ожидали, что вскоре после Палеха появится алгоритм, который будет работать аналогично, но не в названиях, а в содержании.Пока мы не заметим скачки трафика на наблюдаемых сайтах, будем наблюдать внимательнее и смотреть за развитием алгоритма в дальнейшем. Интересно, что раньше для улучшения ранжирования большого количества запросов, в том числе связанных, готовили SEO-тексты, у кого-то лучше, у кого-то хуже, кто-то называл их по-другому, но смысл не менялся. Теперь за SEO-тексты наказывают, а поиск ранжирует документы по смыслу.
  Мы ожидаем, что оптимизаторы будут больше использовать LSI при подготовке оптимизации текста.

Соответственно будут развиваться услуги SEO. Напомню, что составление списка SEO-слов, терминов в теме, связанных запросов для подготовки контента и оптимизации используется специалистами уже несколько лет. Поэтому серьезных изменений в механике не произойдет, по крайней мере, пока.

В итоге больше внимания уделяем:

Качество контента;
   намерение запроса;
   наблюдение за экстрадицией.

Ну и, конечно, после запуска нового алгоритма от Яндекса всегда интересно проанализировать, что изменилось и понаблюдать, что будет дальше.

Дмитрий Севальнев

Фактически с введением ряда новых коэффициентов, которые учитывают:

смысловое соответствие пары запрос-документ (по всему тексту документа, а не только по Заголовку, как ранее в алгоритме Палеха),
качество ответа документа на сходные по смыслу поисковые запросы —

глобальных изменений для индустрии SEO не произойдет. Наиболее существенные изменения коснутся «длинного хвоста» запросов, над которыми целенаправленно SEO-специалисты работают мало.Их очень много, они редки и часто обеспечивают разовые посещения сайта.

Значимость ряда факторов, которые уже прорабатываются специалистами с того момента, как БИС стала «модной темой», может быть увеличена.

Олег Шестаков, технический директор и основатель Rush Analytics Россия

Анонс алгоритма Королева был, пожалуй, самым масштабным с точки зрения шоу. С точки зрения техники нельзя сказать, что это какой-то новый технологический прорыв.В чем смысл нововведения: теперь нейросети Яндекса оценивают соответствие запроса-документа не только с точки зрения включения запроса и его вариаций (леммы, частей запроса и т. д.) в текст запроса документа, но и с точки зрения смысла запроса. Нейронная сеть, обученная на больших данных, теперь способна определять релевантность документа запросу, даже если документ не содержит слов запроса. Собственно — это не новая технология — она тоже использовалась в алгоритме Палеха, правда учитывала только заголовки документов.Те. настоящее новшество здесь в том, что инженерам Яндекса удалось на несколько порядков масштабировать очень ресурсоемкий алгоритм — теперь алгоритм может оценивать сотни тысяч документов, а не 150 строк текста, как раньше.

Как алгоритм повлияет на рынок SEO?

— Глобально — никак. Это всего лишь часть алгоритма, и большинство других факторов работали и будут работать. Этот алгоритм, скорее всего, затронет низкочастотные запросы и часть среднечастотных запросов.

— Придется больше внимания уделять качеству текстов. Теперь, чтобы вывести страницу в ТОП, текст страницы должен содержать как можно больше синонимов и слов, относящихся к запросу, чтобы пройти по факторам нового алгоритма, ведь он теперь учитывает именно такие слова, а не только «прямые события». Никакого волшебства здесь нет — нейросеть обучают учителя-оценщики и до сих пор работает с текстами реальных сайтов, находя родственные слова. Так что можно провести аналогичный анализ и извлечь эти слова из их ТОП-документов.Компетентные SEO-специалисты начали этим заниматься несколько лет назад. Если простыми словами — тот же БИС, только в профиль.

— Рынок дешевого копирайтинга начнет рушиться, и это очень хорошо. Задание на написание текста в формате «3 прямых вхождения, 4 разбавленных и длиной 2500 символов» будет генерировать тексты, которые будут плохо ранжироваться.

Теперь нам нужны тексты историй. Мы, как SEO-специалисты, должны во всех подробностях рассказать историю о продукте клиента, описав товар со всех сторон — при таком подходе будет физически сложно упустить важные тематические слова запроса.Учтите, что вебмастера, зарабатывающие на сайтах статей, уже очень давно пишут тексты по истории, даже про юристов по алиментам, с отличной версткой, раскрытием тем и интересных моментов. Что в итоге? У них много трафика и ТОПов, плюс тотальная победа над сухими сайтами юрфирм.

Производство контента станет несколько дороже и профессиональнее. SEO-компании либо перестают писать SEO-чушь и встраивают внутрь издания для взрослых, либо их клиенты теряют позиции в поиске.Вчера Яндекс густо намекнул на это.

Александр Алаев

Королёв — это не только SEO. Цель SEO — работать с запросами, которые задаются много раз и их смысл ясен, и есть тысячи релевантных ответов. Задача поисковика в коммерческом сегменте — найти лучших кандидатов по коммерческим критериям, а не искать смыслы. Поэтому коммерческая выдача не изменится, по крайней мере, заметно.

А вот владельцам информационных ресурсов стоит еще раз обратить внимание на качество контента, ориентировать свои публикации не по поисковым запросам, а по интересам пользователей, писать человеческим простым языком.

Все мои проекты, кроме этого SEO-блога:

TOP Base   — качественная база для полуавтоматической регистрации в Allsubmitter или для полностью ручного размещения — для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Собираю и обновляю базу уже 10 лет. Есть всевозможные сайты, все тематики и регионы.

SEO Topshop   — SEO-программы со СКИДКАМИ, на выгодных условиях, новости SEO-услуг, базы данных, руководства.В том числе Xrumer на самых выгодных условиях и с бесплатным обучением, Zennoposter, Zebroid и различные другие.

Мои бесплатные комплексные SEO-курсы  – 20 подробных уроков в формате PDF.
 – каталоги сайтов, статьи, сайты с пресс-релизами, доски объявлений, каталоги компаний, форумы, социальные сети, системы блогов и многое другое.

«Приближаясь..»  — мой блог на тему саморазвития, психологии, отношений, личной эффективности

Алгоритм ранжирования сайтов в Яндексе постоянно претерпевает изменения и дополнения: добавляют новый функционал, обновляют ограничения, фильтры…Очень долгое время учет всех алгоритмов ранжирования велся только внутри компании и, когда его резко обновили, пользователи возмутились и, честно говоря, мало что поняли.

Много времени ушло на исследование алгоритмов ранжирования Яндекса, поиск ответов на тему фильтров и как не попасть в «черный список». Теперь все немного проще, но не настолько, чтобы пренебрегать анализом принципа работы Яндекс.

Алгоритмы

Яндекса имеют довольно долгую историю создания и становления, начиная с далекого 1997 года.С тех пор Яндекс изменился, появились новые алгоритмы и новые фильтры. Начнем наш «разбор полетов», пожалуй, с самых «свежих» алгоритмов.

Новый алгоритм Яндекса «Баден-Баден». 2017 год

Яндекс представляет новый алгоритм определения текстового спама под названием «Баден-Баден».
 Алгоритм создан для борьбы с «накруткой» релевантности путем написания бесполезных и «переоптимизированных» для пользователя текстов (с большим количеством ключевых вхождений).

Как сообщается в блоге Яндекса, существенно изменен и улучшен алгоритм обнаружения текстового спама.Сами авторы публикации утверждают, что данный алгоритм «является частью общего алгоритма ранжирования, результатом его работы может быть ухудшение позиций повторно оптимизированных страниц в результатах поиска». И что это может означать?

Во-первых, если он был «переработан и улучшен», то скорее всего этот алгоритм создан для замены уже знакомых фильтров «переспама» и «переоптимизации». А если он действительно «входит в общий алгоритм ранжирования», то диагностировать наличие «штрафов», накладываемых этим алгоритмом, будет сложнее.

Новый алгоритм Яндекса на 2016 год. Палех

Алгоритм попытается сопоставить смысл запроса с помощью нейронных сетей, а не просто сопоставить ключевые слова, как это обычно делалось. Это было сделано для того, чтобы обеспечить максимально возможную доставку по самым редким запросам пользователей. Новый алгоритм основан на нейронных сетях и помогает Яндексу находить соответствие между поисковым запросом и заголовками страниц, даже если у них нет общих ключевых слов. Чтобы понять, что же произошло на самом деле, несколько цитат из официального блога Яндекса:

В нашем случае мы имеем дело не с картинками, а с текстами — это тексты поисковых запросов и заголовков веб-страниц — но обучение происходит одинаково: на положительных и отрицательных примерах.Каждый пример представляет собой пару запрос-заголовок. Подбирать примеры можно по статистике, накопленной поиском. Изучая поведение пользователя, нейросеть начинает «понимать» смысловое соответствие между запросом и заголовками страниц.

Семантический вектор используется не только в поиске Яндекса, но и в других сервисах — например, в Картинки. Там он помогает найти в Интернете изображения, максимально соответствующие текстовому запросу.

Технология семантических векторов имеет огромный потенциал.Например, в такие векторы можно переводить не только заголовки, но и полные тексты документов — это позволит точнее сравнивать запросы и веб-страницы.
 Внедрение нового алгоритма Яндекса — еще один весомый аргумент в пользу продвижения низкочастотных запросов для тех, кто занимается разработкой и продвижением сайтов. Перспективы развития нового алгоритма Яндекса только подтверждают правильность выбранного направления, ведь в ближайшее время мы сосредоточимся на улучшенном распознавании не только заголовков, но и всего текстового документа в целом (!).

В Яндексе график частотного распределения представлен в виде птицы, у которой есть клюв, туловище и длинный хвост, характерные для жар-птицы

  • Клюв — самые высокочастотные запросы. Список таких запросов не очень большой, но задаются они очень и очень часто.
  • Тело среднечастотных запросов.
  • Хвост — низкочастотные и микронно-низкочастотные запросы. «По отдельности они редки, но вместе они составляют существенную часть поискового потока, и поэтому составляют длинный хвост.

Такой хвост принадлежит птице, которая довольно часто появляется на палехской миниатюре. Именно поэтому алгоритм называется «Палех».

Все алгоритмы Яндекса. (2007-2017 гг.)
  • 2 июля 2007 г. . «Версия 7». Новая формула ранжирования, увеличение количества факторов, анонс состоялся только на searchengines.guru.
  • 20 декабря 2007 г. . 17 января 2008 г. «Версия 8» и «Восьмерка SP1». Авторитетные ресурсы получили существенный плюс в ранжировании, введение фильтрации «прогонов» для увеличения ссылочных факторов.
  • 16 мая, 2 июля 2008 г. . «Магадан» (Fast Rank для быстрого подбора соискателей, мягкость, расширение базы аббревиатур и синонимов, расширенные классификаторы документов), «Магадан 2.0» (уникальность контента, новые классификаторы запросов пользователей и документов).
  • 11 сентября 2008 г. . «Найти» (учет стоп-слов в поисковом запросе, новый подход к машинному обучению, тезаурус).
  • 10 апреля, 24 июня, 20 августа, 31 августа, 23 сентября, 28 сентября 2009 г.
      «Арзамас/Анадырь» (с учетом региона пользователя, удаление омонимии), «Арзамас 1.1» (новая региональная формула для ряда городов, кроме Москвы, Санкт-Петербурга и Екатеринбурга), «Арзамас 1.2» (новый классификатор геозависимость запросов), «Арзамас + 16» (независимые формулы для 16 регионов России), «Арзамас 1.5» (новая общая формула для геозависимых запросов), «Арзамас 1.5 СП1» (улучшенная региональная формула для геозависимых запросы).
  • 17 ноября 2009 г. .Снежинск (запуск технологии машинного обучения MatrixNet, многократное увеличение количества факторов ранжирования, 19 локальных формул для крупнейших регионов России, серьезные изменения в выдаче).
  • 22 декабря 2009 г. 10 марта 2010 г. . «Конаково» (неофициальное название, но в дальнейшем это будет Обнинск, свои формулы для 1250 городов по всей России), «Конаково 1.1» («Снежинск 1.1») — обновление формулы для геонезависимых запросов.
  • 13 сентября 2010 г. .Обнинск (перенастройка формулы, повышение производительности, новые факторы и ранжирование по геонезависимым запросам, доля которых в потоке более 70%).
  • 15 декабря 2010 г. . «Краснодар» (технология «Спектр» и увеличение разнообразия выдачи, разложение запроса пользователя на намерения), далее: увеличение локализации выдачи по геозависимым запросам, независимые формулы для 1250 городов России.
  • 17 августа 2011 г. . Рейкьявик (учет языковых предпочтений пользователей, первый шаг в персонализации выдачи).
  • 12 декабря 2012 г. . «Калининград» (значительная персонализация выдачи: подсказки, учитывающие долгосрочные интересы пользователя, повышение релевантности для «любимых» сайтов).
  • 30 мая 2013 г. . Дублин (дальнейшая персонализация выдачи: учет сиюминутных интересов пользователей, тонкая настройка результатов выдачи под пользователя непосредственно во время поисковой сессии).
  • 12 марта 2014 г. . «Началово»*, «Без ссылок» (снятие с учета ссылок/количество ссылочных факторов в ранжировании по группам коммерческих запросов в Московской области).
  • 5 июня 2014 г. . «Одесса»*, «Острова» (новый «островной» дизайн доставки и обслуживания, внедрение интерактивных ответов, позже эксперимент был признан неудачным и завершен).
  • 1 апреля 2015 г. . «Амстердам»*, «Объект-ответ» (дополнительная карточка с общей информацией о предмете запроса справа от результатов, Яндекс классифицировал и хранил в базе десятки миллионов различных объектов поиска).
  • 15 мая 2015 г. .«Минусинск» (понижение в рейтинге сайтов с избыточным количеством и долей SEO-ссылок в ссылочном профиле, массовое удаление SEO-ссылок, дальнейшее возвращение ссылочных факторов в рейтинге по всем запросам в Московской области).
  • 14 сентября 2015 г.  (± 3 месяца). «Киров»*, «Многорукие бандиты Яндекса» (рандомизированное добавление к числовому значению релевантности ряда документов с рейтингом «Рел+», с целью сбора дополнительной поведенческой информации в Московском регионе, в дальнейшем — в регионах России была введена рандомизация).
  • 2 февраля 2016 г. . Владивосток (с учетом адаптивности сайта для просмотра с портативных устройств, увеличение результатов мобильной выдачи адаптированных проектов).
      * — неофициальные названия алгоритмов, города выбраны на усмотрение автора в целях соблюдения порядка.

И окончательные алгоритмы на данный момент (мы разрабатываем) это вышеуказанные алгоритмы с эпичными и неординарными названиями «Палех» и «Баден-Баден».

Все фильтры Яндекса и их типы.

Яндекс имеет множество фильтров, которые можно применять как к сайту в целом, так и к его отдельным страницам в частности. К сожалению, не всегда понятно, какие из множества фильтров и за какие нарушения накладываются на сайт — теперь любое малейшее несоответствие при использовании стандартных методов продвижения может быть признано «спамом». Итог: пессимизация.

Все фильтры Яндекса (в зависимости от их внешнего вида) можно разделить на 3 типа:

Предварительные фильтры:   снижают значение любых факторов еще до расчета релевантности сайта.Эффект префильтров можно заметить не сразу — обычно он проявляется в «залипании» сайта в некоторых местах (сайт дошел до 2-х страниц и дальше не продвигается, несмотря на увеличение ссылочной массы, например).
Постфильтры: обнулить значение того или иного фактора уже после подсчета релевантности сайта. Фильтры такого типа сложно не заметить — именно они проявляются в резком падении позиций и трафика с Яндекс. Практически все фильтры накрутки внутренних факторов можно отнести к постфильтрам.
Фильтрация перед выдачей:  это когда релевантность сайта подсчитывается, но почему-то не разрешается выдавать.
Бан : Редко, но все же происходит полное исключение сайта из выдачи за грубые нарушения лицензии на поиск.

Судя по всему, Яндекс довольно требователен к качеству сайтов и при каждом удобном случае напоминает нам о своей официальной позиции — развивайте свой сайт, ориентируйтесь на «живого» пользователя и если рейтинг сайта от Яндекса «отлично» — ваш сайт не останется без внимания.Оптимизируйте сайт так, чтобы оптимизация не навредила, а, наоборот, помогла пользователям ориентироваться на вашем сайте.

Сегодня мы анонсировали новый алгоритм поиска Палеха. Он включает в себя все улучшения, над которыми мы работали в последнее время.

Например, поиск теперь впервые использует нейронные сети, чтобы находить документы не по словам, которые используются в запросе и в самом документе, а по смыслу запроса и названию.

На протяжении многих десятилетий исследователи бьются над проблемой семантического поиска, при котором документы ранжируются на основе семантической релевантности запросу.И теперь это становится реальностью.

В этом посте я постараюсь немного рассказать о том, как мы это сделали и почему это не просто очередной алгоритм машинного обучения, а важный шаг в будущее.

Искусственный интеллект или машинное обучение?

 Почти все знают, что современные поисковые системы работают на основе машинного обучения. Почему нужно говорить об использовании нейросетей для своих задач? И почему только сейчас, ведь ажиотаж вокруг этой темы не утихает уже несколько лет? Постараюсь рассказать об истории вопроса.

Поиск в Интернете — сложная система, появившаяся очень давно. Сначала это был просто поиск по страницам, потом он превратился в решатель задач, а теперь становится полноценным помощником. Чем больше Интернет, и чем больше в нем людей, чем выше их требования, тем сложнее становится поиск.

Эпоха наивного поиска

  Сначала был просто поиск по словам — перевернутый указатель. Тогда было слишком много страниц; их нужно было ранжировать. Стали учитываться различные усложнения — частотность слов, tf-idf.

Link Age

Потом стало слишком много страниц по любой теме, произошел важный прорыв — стали учитывать ссылки, появился PageRank.

Эпоха машинного обучения

  Интернет стал коммерчески важным, и многие мошенники пытаются обмануть простые алгоритмы, существовавшие в то время. Произошел второй важный прорыв — поисковые системы начали использовать свои знания о поведении пользователей, чтобы понимать, какие страницы хорошие, а какие нет.

Где-то на этом этапе человеческого разума уже не хватало сообразить, как ранжировать документы. Произошел следующий переход — поисковые системы стали активно использовать машинное обучение.

В Яндексе придумали один из лучших алгоритмов машинного обучения — Matrixnet. Можно сказать, что ранжированию помогает коллективный разум пользователей и «мудрость толпы». Информация о сайтах и ​​поведении людей преобразуется во множество факторов, каждый из которых используется MatrixNet для построения формулы ранжирования.На самом деле формула ранжирования пишется машиной (получилось около 300 мегабайт).

Но у «классического» машинного обучения есть предел: оно работает только там, где много данных. Небольшой пример. Миллионы пользователей вводят запрос [ВКонтакте], чтобы найти такой же сайт. В этом случае их поведение является настолько сильным сигналом, что поиск не заставляет людей смотреть результаты, а подсказывает адрес сразу при вводе запроса.

Но люди сложнее, и они хотят большего от поиска.Сейчас до 40% всех запросов уникальны, то есть не повторяются как минимум дважды за весь период наблюдения. Это означает, что поиску не хватает данных о поведении пользователей, и Матрикснет теряет ценные факторы. Такие запросы в Яндексе называют «длинным хвостом», так как вместе они составляют значительную долю обращений к нашему поиску.

Эпоха искусственного интеллекта

  И тут самое время поговорить о последнем прорыве: несколько лет назад компьютеры были достаточно быстры, и данных было достаточно для использования нейронных сетей.Технологии на их основе также называют машинным интеллектом или искусственным интеллектом — ведь нейронные сети строятся по образу нейронов в нашем мозгу и пытаются эмулировать работу некоторых его частей.

Машинный интеллект гораздо лучше старых методов справляется с задачами, которые под силу людям: например, распознавание речи или изображений на изображениях. Но как это поможет поиску?

Как правило, низкочастотные и уникальные запросы довольно сложно искать — найти хороший ответ намного сложнее.Как это сделать? У нас нет подсказок от пользователей (какой документ лучше, а какой хуже), поэтому для решения задачи поиска нужно научиться лучше понимать смысловое соответствие между двумя текстами: запросом и документом.

Легко сказать

  Строго говоря, искусственные нейронные сети — это один из методов машинного обучения. Совсем недавно он был посвящен им. Нейронные сети показывают впечатляющие результаты при анализе естественной информации — звука и изображений.Это происходит уже несколько лет. Но почему они до сих пор не так активно используются в поиске?

Ответ прост, потому что говорить о смысле гораздо сложнее, чем говорить об изображении на картинке или о том, как превратить звуки в расшифрованные слова. Однако в поиске смыслов искусственный интеллект действительно начал исходить из той области, где он уже давно царит, — поиска картинок.

Несколько слов о том, как это работает в поиске картинок. Вы берете изображение и используете нейронные сети, чтобы преобразовать его в вектор в N-мерном пространстве.Возьмите запрос (который может быть как в текстовом виде, так и в виде другой картинки) и сделайте с ним то же самое. А затем сравните эти векторы. Чем ближе они друг к другу, тем больше картинка соответствует запросу.

Хорошо, если это работает с картинками, почему бы не применить ту же логику к поиску в Интернете?

Дьявол в технике

  Сформулируем задачу следующим образом. У нас на входе запрос пользователя и заголовок страницы. Нужно понять, как они соответствуют друг другу по смыслу.Для этого необходимо представить текст запроса и текст заголовка в виде таких векторов, скалярное произведение которых было бы тем больше, чем релевантнее запросу документ с данным заголовком. Другими словами, мы хотим обучить нейросеть таким образом, чтобы она генерировала одинаковые векторы для близких по смыслу текстов, а для семантически не связанных запросов и заголовков векторов они должны быть разными.

Сложность этой задачи заключается в выборе правильной архитектуры и метода обучения нейронной сети.Из научных публикаций известно довольно много подходов к решению проблемы. Наверное, самый простой способ здесь — представлять тексты в виде векторов с помощью алгоритма word2vec (к сожалению, практический опыт подсказывает, что это довольно неудачное решение для рассматриваемой задачи).

DSSM

В 2013 году исследователи из Microsoft Research описали свой подход, названный глубоко структурированной семантической моделью.

На вход модели подаются тексты запросов и заголовков.Для уменьшения размера модели над ними производится операция, которую авторы называют хешированием слов. К тексту добавляются маркеры начала и конца, после чего он разбивается на буквенные триграммы. Например, по запросу [палех] мы получаем триграммы [па, але, леч, ех]. Поскольку количество различных триграмм ограничено, мы можем представить текст запроса в виде вектора из нескольких десятков тысяч элементов (размер нашего алфавита 3 степени). Элементы вектора, соответствующие триграммам запроса, будут равны 1, остальные будут равны 0.По сути, таким образом мы отмечаем вхождение триграмм из текста в словарь, состоящий из всех известных триграмм. Если сравнивать такие векторы, то можно узнать только о наличии одинаковых триграмм в запросе и заголовке, что не представляет особого интереса. Поэтому теперь их необходимо преобразовать в другие векторы, которые уже будут обладать нужными нам свойствами семантической близости.

После входного слоя, как и положено в глубоких архитектурах, есть несколько скрытых слоев как для запроса, так и для заголовка.Последний слой имеет размер 128 элементов и служит вектором, который используется для сравнения. Выход модели — результат скалярного умножения последних векторов заголовка и запроса (для полной точности вычисляется косинус угла между векторами). Модель обучается таким образом, что для положительных обучающих примеров выходное значение большое, а для отрицательных — маленькое. Другими словами, сравнивая векторы последнего слоя, мы можем вычислить ошибку предсказания и модифицировать модель так, чтобы ошибка уменьшалась.

Мы в Яндексе тоже активно изучаем модели на основе искусственных нейронных сетей, поэтому нас интересует модель DSSM. Далее мы расскажем о наших экспериментах в этой области.

Теория и практика

Характерным свойством описанных в научной литературе алгоритмов является то, что они не всегда работают «из коробки». Дело в том, что «академический» исследователь и отраслевой исследователь находятся в существенно разных условиях. В качестве отправной точки (базы), с которой автор научной публикации сравнивает свое решение, должен выступать какой-то известный алгоритм — это обеспечивает воспроизводимость результатов.Исследователи берут результаты ранее опубликованного подхода и показывают, как их можно превзойти. Например, авторы оригинального DSSM сравнивают свою модель с использованием метрики NDCG с алгоритмами BM25 и LSA. В случае исследователя-прикладника, который занимается качеством поиска в реальном поисковике, отправной точкой является не один конкретный алгоритм, а весь рейтинг в целом. Цель разработчика Яндекса не обогнать БМ25, а добиться улучшения на фоне множества ранее введенных факторов и моделей.Таким образом, базовый уровень для исследователя в Яндексе крайне высок, а многие алгоритмы с научной новизной и показывающие хорошие результаты при «академическом» подходе на практике бесполезны, так как не позволяют реально улучшить качество поиска.

В случае с DSSM мы столкнулись с той же проблемой. Как это часто бывает, в «боевых» условиях точная реализация модели из статьи показала довольно скромные результаты. Потребовался ряд существенных «улучшений файлов», прежде чем мы смогли получить интересные с практической точки зрения результаты.Здесь мы расскажем об основных модификациях исходной модели, позволивших сделать ее мощнее.

Большой входной слой

  В исходной модели DSSM входной слой представляет собой набор буквенных триграмм. Его размер составляет 30 000. Триграммный подход имеет несколько преимуществ. Во-первых, их относительно немного, поэтому работа с ними не требует больших ресурсов. Во-вторых, их применение упрощает выявление опечаток и ошибок в словах. Однако наши эксперименты показали, что представление текстов в виде «мешочка» триграмм заметно снижает выразительную силу сети.Поэтому мы резко увеличили размер входного слоя, включив, помимо буквенных триграмм, около 2 миллионов слов и словосочетаний. Таким образом, мы представляем тексты запроса и заголовка в виде совместного «мешка» слов, словесных биграмм и буквенных триграмм.

Использование большого входного слоя приводит к увеличению размера модели, длительности обучения и требует значительно больших вычислительных ресурсов.

Трудно учиться: как нейронная сеть боролась сама с собой и училась на своих ошибках

  Изучение оригинального DSSM состоит в демонстрации сети множества положительных и отрицательных примеров.Эти примеры взяты из результатов поиска (видимо, для этого использовался поисковик Bing). Положительные примеры — это заголовки кликнутых документов выдачи, отрицательные примеры — заголовки документов, по которым не было клика. Этот подход имеет определенные недостатки. Дело в том, что отсутствие клика не всегда свидетельствует о неактуальности документа. Верно и обратное — наличие клика не гарантирует актуальность документа. По сути, обучаясь способом, описанным в исходной статье, мы стремимся предсказать привлекательность заголовков при условии, что они присутствуют в поисковой выдаче.Это, конечно, тоже неплохо, но имеет довольно косвенное отношение к нашей главной цели — научиться понимать смысловую близость.

В ходе наших экспериментов мы обнаружили, что результат можно заметно улучшить, используя другую стратегию отбора отрицательных примеров. Для достижения нашей цели хорошими отрицательными примерами являются документы, которые гарантированно не имеют отношения к запросу, но помогают нейросети лучше понимать значения слов. Откуда их взять?

Первая попытка

Во-первых, в качестве отрицательного примера просто возьмите заголовок случайного документа.Например, для запроса [Палехская роспись] случайным заголовком может быть «Правила дорожного движения 2016 РФ». Конечно, нельзя полностью исключить, что к запросу будет иметь отношение случайно выбранный документ из миллиардов, но вероятность этого настолько мала, что ею можно пренебречь. Таким образом, мы можем очень легко получить большое количество отрицательных примеров. Казалось бы, теперь мы можем научить нашу сеть именно тому, что хотим — отличать хорошие документы, интересующие пользователей, от документов, не имеющих ничего общего с запросом.К сожалению, обученная на таких примерах модель оказалась слабоватой. Нейронная сеть — умная штука, и она всегда найдет способ упростить свою работу. В данном случае она просто начала искать в запросах и заголовках одинаковые слова: да — хорошая пара, нет — плохая. Но мы сами в состоянии это сделать. Для нас важно, чтобы сеть научилась различать неочевидные закономерности.

Еще одна попытка

  Следующим экспериментом было добавление слов из запроса в заголовки отрицательных примеров.Например, для запроса [Палехская роспись] случайный заголовок имел вид [Правила дорожного движения 2016 РФ роспись]. Нейросеть была немного сложнее, но, тем не менее, она быстро научилась хорошо различать естественные пары и пары, созданные вручную. Стало ясно, что такими методами у нас ничего не получится.

Успех

  Многие очевидные решения становятся очевидными только после того, как они обнаружены. Так и случилось на этот раз: через некоторое время выяснилось, что лучший способ генерировать негативные примеры — заставить сеть «бороться» с самой собой, учиться на собственных ошибках.Среди сотен случайных заголовков мы выбрали тот, который текущая нейросеть сочла лучшим. Но, поскольку этот заголовок все же случайный, с большой вероятностью он не соответствует запросу. И именно эти заголовки мы стали использовать в качестве отрицательных примеров. Другими словами, вы можете показывать сети лучшие из случайных заголовков, обучать их, находить новые лучшие случайные заголовки, снова показывать сети и так далее. Повторяя эту процедуру раз за разом, мы видели, как заметно улучшается качество модели, и все чаще лучшие из случайных пар становятся похожими на реальные положительные примеры.Проблема была решена.

Подобную схему обучения в научной литературе принято называть жестким негативным майнингом. Также следует отметить, что подобные по концепции решения широко использовались в научном сообществе для генерации реалистично выглядящих изображений, аналогичный класс моделей получил название Generative Adversarial Networks.

Различные цели

  В качестве положительного примера исследователи из Microsoft Research использовали клики по документам. Однако, как уже было сказано, это достаточно недостоверный сигнал о смысловом соответствии заголовка запросу.В конце концов, наша задача не в том, чтобы поднять в результатах поиска самые посещаемые сайты, а в том, чтобы найти действительно полезную информацию. Поэтому мы попытались использовать в качестве цели обучения другие характеристики поведения пользователей. Например, одна из моделей предсказывала, останется ли пользователь на сайте или уйдет. Другое дело, как долго он задерживается на сайте. Как оказалось, можно значительно улучшить результаты, если оптимизировать такую ​​целевую метрику, которая свидетельствует о том, что пользователь нашел то, что ему нужно.

Прибыль

  Хорошо, что это нам дает на практике? Сравним поведение нашей нейронной модели и простого текстового фактора, основанного на соответствии между словами запроса и текстом — BM25.Он пришел к нам из тех времен, когда ранжирование было простым, а сейчас им удобно пользоваться на базовом уровне.

В качестве примера возьмем запрос [Келлская книга] и посмотрим, какие факторы значимости занимают разные заголовки. Для контроля добавим в список заголовков явно неактуальный результат.

Все коэффициенты в Яндексе нормированы на интервал. Ожидается, что BM25 имеет высокие значения для заголовков, содержащих слова запроса. И предсказуемо, что этот фактор получает нулевое значение в заголовках, не имеющих общих слов с запросом.Теперь обратите внимание на то, как ведет себя нейронная модель. Он одинаково хорошо распознает связь запроса как с русскоязычным заголовком соответствующей страницы Википедии, так и с англоязычным заголовком статьи! Кроме того, похоже, что модель «увидела» связь запроса с заголовком, в котором не упоминается Келлская книга, но есть близкое по смыслу словосочетание («Ирландские Евангелия»). Ценность модели для нерелевантного заголовка существенно ниже.

Теперь посмотрим, как поведут себя наши факторы, если мы переформулируем запрос, не меняя его смысла: [евангелие из Келлса].

Для ВМ25 переформулировка запроса обернулась настоящей катастрофой — коэффициент стал нулевым на релевантных заголовках. И наша модель демонстрирует отличную устойчивость к переформулировке: релевантные заголовки по-прежнему имеют высокое значение фактора, а нерелевантные заголовки — низкое. Похоже, именно такого поведения мы и ожидали от вещи, претендующей на способность «понимать» семантику текста.

Другой пример. Запрос [рассказ, в котором была раздавлена ​​бабочка].

  Как видите, нейромодель смогла оценить заголовок с правильным ответом, несмотря на полное отсутствие общих слов с запросом.При этом хорошо видно, что заголовки, которые не отвечают на запрос, но тем не менее родственны по смыслу, получают достаточно высокое значение коэффициента. Наша модель как будто «прочитала» рассказ Брэдбери и «знает», что именно об этом он говорит в запросе!

Что дальше?

  Мы в самом начале большого и очень интересного пути. Судя по всему, нейронные сети обладают отличным потенциалом для улучшения ранжирования. Основные направления, которые нуждаются в активном развитии, уже ясны.

Например, очевидно, что заголовок содержит неполную информацию о документе, и было бы неплохо научиться строить модель по полному тексту (как оказалось, это не совсем тривиальная задача). Далее можно представить модели, имеющие значительно более сложную архитектуру, чем DSSM — есть основания полагать, что таким образом мы сможем лучше обрабатывать некоторые конструкции естественного языка. Свою долгосрочную цель мы видим в создании моделей, способных «понимать» смысловое соответствие запросов и документов на уровне, сравнимом с уровнем человека.На пути к этой цели будет много трудностей — тем интереснее будет ее пройти. Обещаем рассказать о нашей работе в этой области. Следите за следующими публикациями.

Все мы не понаслышке знаем о существующих алгоритмах поисковых систем Яндекс и Google. Именно для соблюдения их «постоянно обновляемых» правил все оптимизаторы ломают себе голову все новыми и новыми способами попадания в ТОП поисковой выдачи. Из последних нововведений, которые испытали владельцы сайтов на стороне ПС, это требования к мобильности интернет-ресурсов и снижение поиска сайтов , которые не умеют покупать ссылки .Какие алгоритмы до этого времени, заложенные в поиске, существенно влияли на ранжирование сайтов? На самом деле далеко не все оптимизаторы знают, какие технологии, когда и зачем они были созданы, чтобы максимально честно отдать позицию каждому сайту в поиске и очистить выдачу от «мусора». Историю создания и развития поисковых алгоритмов мы рассмотрим в этой статье.

Яндекс: типы алгоритмов от замысла до сегодняшнего дня

Алгоритмы не создавались все за один день, и каждый из них прошел множество этапов уточнения и трансформации.Основная масса названий алгоритмов Яндекса состоит из названий городов. Каждый из них имеет свои принципы работы, точки взаимодействия и уникальные функциональные особенности, гармонично дополняющие друг друга. Какие алгоритмы есть у Яндекса и как они влияют на сайты, рассмотрим далее.

Помимо информации об алгоритмах поиска будет полезна статья про. Предлагаю вам ознакомиться с советами по созданию качественного SEO-контента, подходящего для поисковых систем Google и Яндекс.

Магадан

Алгоритм «Магадан» распознает сокращения и идентифицирует существительные с глаголами.Впервые он был запущен в тестовом режиме в апреле 2008 года, а вторая постоянная версия была выпущена в мае того же года.

Характеристики

«Магадан» дает пользователю, написавшему аббревиатуру, сайты и с расшифровкой. Например, если в поисковой строке ввести запрос МВД, то помимо сайтов с таким ключевым словом, будут те, у которых нет аббревиатуры, но есть расшифровка «МВД». быть в списке. Распознавание транслитерации дало возможность пользователям не думать, на каком языке писать имена, например, Мерседес или Мерседес.Ко всему этому Яндекс включил в список индексации почти миллиард иностранных сайтов. Распознавание частей речи и распознавание по эквивалентным им поисковым запросам вывело сайты с разными ключевыми фразами в один поиск. То есть теперь по ключевому слову «оптимизация сайта» в результатах поиска отображаются и сайты с фразой «оптимизировать сайт».

результатов

После запуска алгоритма Магадан стало сложнее работать в основном неавторизованным сайтам. В рейтинге малопосещаемые и молодые ресурсы уменьшились по релевантным запросам, а авторитетные, даже с некачественным контентом, выдвинулись на первые места с учетом морфологии и разбавления ключевых слов.За счет учета транслитерации в ТОП Рунета вошли и иностранные ресурсы. То есть оптимизированный текст по теме мог появиться на второй странице только потому, что якобы на эту же тему есть более посещаемый сайт или аналогичный зарубежный. Из-за этого резко возросла конкуренция за низкочастотные ключевые слова и иностранные фразы. Подорожала и реклама — выросли ставки, потому что раньше сайты конкурировали только по одному конкретному запросу, а теперь уже с «коллегами» с морфологическими словосочетаниями, транслитерацией, словами, переходящими в другую часть речи.

Найти

Алгоритм Находки — это расширенный тезаурус и внимательное отношение к стоп-словам. Вышел «в ринг» сразу после «Магадана». Занимает главный номер с сентября 2008 года.

Характеристики

Это инновационный подход к машинному обучению — ранжирование стало нагляднее и правильнее. Расширенный словарь связей и внимание к стоп-словам в алгоритме «Найти» сильно повлияли на результаты поиска. Например, запрос «SEO-оптимизация» теперь связывался с ключом «seoptimization», а коммерческие сайты разбавлялись информационными порталами, включающими подробные сниппеты с ответами, которые появлялись в списке, а Википедия отображалась особым образом.

результатов

Коммерческие сайты сделали больший упор на продающие запросы, так как конкуренция по информационным неконкретным фразам возросла в несколько раз. В свою очередь, информационные площадки смогли расширить свою монетизацию, используя страницы рекомендаций, участвуя в партнерских программах. Топовые информационные сайты, продвигаемые по коммерческим запросам, стали продавать ссылки на заказ. Конкуренция усилилась.

Арзамас

Алгоритм Арзамас — введена лексическая статистика поисковых запросов и создано географическое положение сайта Первая версия «Арзамас» (апрель 2009) без геозависимости вышла сразу в основной выпуск, а «Арзамас 2» с классификатором привязки сайта к региону был анонсирован в августе 2009 года.

Характеристики

Удаление привязки к омонимам облегчило жизнь пользователю, ведь теперь словосочетание «американский пирог» отображало только сайты на тему фильмов, без рецептов десертов, как это могло быть раньше. Привязка к региону совершила прорыв, сдвинув ключевые фразы с добавлением города на несколько пунктов вниз. Теперь пользователь мог просто ввести слово «рестораны» и увидеть в лидерах только сайты из города своего местонахождения. Если вы помните, раньше вам нужно было вводить более конкретную фразу, например, «Рестораны в Санкт-Петербурге».Санкт-Петербург», иначе Яндекс мог дать ответ «уточните запрос — найдено слишком много вариантов». Геонезависимые ключевые слова выдавались только сайтам, релевантным запросу из любого региона, без привязки.

результатов

Ура! Наконец, площадки из небольших регионов перестали конкурировать с крупными мегаполисами. Попасть в ТОП в своем регионе теперь намного проще. Именно в это время была предложена услуга «региональное продвижение». Алгоритм Армазаса позволил небольшим компаниям быстрее расти в своей сфере, но подвох все равно остался.Яндекс не смог определить геолокацию на всех сайтах. И как вы сами понимаете — без привязки ресурсы остались, мягко говоря, в одном не очень приятном месте. Рассмотрение заявки на геозависимость могло растянуться на несколько месяцев, а молодые сайты без посещаемости и ссылочной массы (было ограничение по ТИЦ), вообще не могли подать заявку на присвоение им региональности. Обоюдоострый меч.

Снежинск

Алгоритм Снежинска заключается в усилении геозависимости и уточнении актуальности запросов на выдачу с использованием технологии машинного обучения Matrixnet.Анонс состоялся в ноябре 2009 года, а улучшенная модель под названием «Конаково» заработала в декабре того же года.

Характеристики

Результаты поиска стали более точными при вводе вопросов. Привязка к геолокации теперь играет особую роль — коммерческие сайты не были привязаны к регионам в снежинском алгоритме, а потому выпали из списка. Ключевые слова, не имеющие географической привязки, идентифицируются с информационными ресурсами. Сложная архитектура расчета релевантности сильно усложнила жизнь оптимизаторам, которые заметили, что при малейшем изменении одного из показателей мгновенно менялась позиция сайта в поисковой выдаче.

результатов

В то время было замечено, что покупка внешних ссылок на молодые сайты слишком вяло влияла на показатели работы новых ресурсов, если сравнивать аналогичную покупку с сайтом, который давно присутствует на интернет-рынке. Новые методы определения релевантности контента поисковым запросам были выброшены из поисковой выдачи сайты, тексты которых были перенасыщены ключевыми фразами. Началась новая эра качественного текста, где во всем должна была быть мера, без нее сайт мог просто попасть под санкции за спам.Коммерческие ресурсы забили панику, потому что вывести в ТОП геонезависимые ключевые слова (а они были самыми частотными) практически невозможно. В связи с этим в блоге Яндекса была опубликована запись о том, что в идеале хотелось бы видеть на первых полосах коммерческие организации, которые не красиво пишут и хорошо делают свою работу, но для этого придется учить алгоритмы оценивать качество предлагаемых услуг. Поскольку на данный момент это оказалось невыполнимой задачей, ключевую роль в выдаче сыграла репутация коммерческих интернет-ресурсов, как онлайн, так и оффлайн.

Обнинск

Обнинский алгоритм улучшает ранжирование и расширяет базу географического расположения интернет-сайтов и снижает влияние искусственных SEO-ссылок на работоспособность сайта. Выпущен в сентябре 2010 г.

Характеристики

Покупка эталонных масс падает в популярности, появляется понятие «эталонный взрыв», которого теперь все боялись. Конкуренты могли навредить друг другу возможностью ввести алгоритм в заблуждение, купив огромное количество ссылок с «плохих источников» на «коллегу».После этого конкурент выпал из результатов поиска и долгое время не мог туда попасть. Геозависимые слова часто добавляют на разные страницы коммерческих сайтов, чтобы привлечь внимание робота к работе с этим регионом.

результатов

Коммерческие сайты теперь более бережно относятся к своей репутации, что не может не радовать, но многие все же прибегали к грязным методам (искусственно накручивали трафик и покупали отзывы). После выхода обнинского алгоритма покупка вечных ссылок и статей стала более популярной, обычная покупка ссылок уже не так сильно влияла на ранжирование, как раньше, а попадание источника обратной ссылки под санкции могло потянуть цепную реакцию.Качественные SEO-тексты — обязательный атрибут любого ресурса. Молодой сайт с уникальным и правильно оптимизированным контентом мог оказаться в ТОПе.

Краснодар

Алгоритм «Краснодар» — это внедрение технологии «Спектрум» для разбавления результатов поиска, расширения сниппетов и индексации социальных сетей. Запуск состоялся в декабре 2010 года.

Характеристики

Технология «Спектр» была создана для классификации запросов по категориям и использовалась в тех случаях, когда вводились неуказанные ключевые фразы.Краснодар разбавил результаты поиска, предложив такому пользователю более разнообразные варианты. Например, по фразе «фото Москвы» в поиске можно было увидеть не только общие пейзажи, но и фотографии по таким категориям, как «достопримечательности», «карты», «рестораны». Акцент был сделан на уникальные названия чего-либо (сайтов, моделей, товаров) — стала выделяться специфика. Расширенные сниппеты позволили сразу показывать пользователям контакты и другие данные организаций в результатах поиска.

результатов

Значительно изменен рейтинг коммерческих сайтов, особое внимание уделяется деталям (карточки товаров, отделение краткого описания от общего).Социальная сеть в ВК стала индексироваться и профили участников теперь одинаково видны прямо в результатах поиска. Сообщения на форумах могли бы занимать первые позиции, если бы имели более развернутый ответ на вопрос пользователя, чем на других сайтах.

Рейкьявик

Алгоритм Рейкьявик — создана персонализация результатов поиска и добавлена ​​технология «Колдуны» для отображения предварительных результатов запроса. Улучшена формула всплывающей подсказки ввода. Алгоритм был запущен в августе 2011 года.

Характеристики

Девиз персонализированных результатов поиска: «У каждого пользователя свои результаты поиска». Система запоминания интересов ищущих работала через куки, поэтому если запросы пользователей чаще были связаны, например, с зарубежными ресурсами, то в следующий раз они отображались в лидерах поисковой выдачи. Подсказки в строке поиска обновляются каждый час, тем самым расширяя возможности конкретного поиска. Конкуренция за высокочастотные запросы возрастает с невероятной силой .

результатов

Авторитетные новостные сайты часто попадают в ТОП благодаря расширенному семантическому ядру (наличию огромного количества различных низкочастотных ключевых запросов). Увеличение количества страниц по конкретным поисковым запросам на информационных сайтах стало играть одну из главных ролей после выхода алгоритма Рейкьвика. Каждый сайт пытался попасть в закладки пользователя, чтобы стать частью системы персонализации. Для этого использовались методы подписки на RSS-ленту и всплывающие баннерные подсказки для добавления сайта в закладки.Интернет-ресурсы стали уделять больше внимания индивидуальному подходу, а не давлению на массы.

Калининград

Калининградский алгоритм — это глобальная персонализация поиска и поисковой строки, акцент на поведенческих факторах. Запуск Калининграда в декабре 2012 года значительно увеличил стоимость seo-услуг.

Характеристики

Интересы пользователя перевернули всю поисковую выдачу – владельцы сайтов, ранее не заботившиеся о комфорте пребывания посетителя на сайте, стали молниеносно терять трафик.Теперь Яндекс разделил свои интересы на краткосрочные и долгосрочные, обновляя свои шпионские базы раз в сутки. Это означало, что сегодня и завтра по одному и тому же запросу одному и тому же пользователю может быть показан совершенно другой вывод. Интересы теперь играют особую роль для пользователя, который ранее интересовался поездками на такси по фразе — показываются услуги такси, а для тех, кто постоянно смотрит фильмы, в результатах поиска будут появляться все комедии «Такси». В поисковой строке каждого «страдальца найти информацию» теперь на первых позициях отображаются подсказки по предыдущим интересам.

результатов

Оптимизаторы стали охватывать все больше и больше способов задержки пользователя: улучшалось удобство использования, дизайн, контент создавался более разнообразным и качественным. При выходе могут всплывать окна типа «вы уверены, что хотите покинуть страницу» и грустное лицо какого-то существа пристально смотрело на пользователя. Продуманная перелинковка страниц и всегда доступное меню улучшили показатели активности пользователей, тем самым повысив позиции сайтов в поисковой выдаче. Непонятные широкому кругу интернет-пользователей сайты сначала просто опускались в позиции, а потом вообще зависали в конце списка предлагаемых результатов.

Дублин

Дублинский алгоритм — улучшенная персонализация за счет определения текущих целей. Эта модернизированная версия Калининграда была выпущена в мае 2013 года.

Характеристики

В технологии реализована функция отслеживания меняющихся интересов пользователей. То есть при наличии двух совершенно разных поисковых просмотров за определенный период времени алгоритм отдаст предпочтение последнему и включит его в результаты поиска.

результатов

Для сайтов практически ничего не изменилось.Борьба продолжается не просто за трафик, а за улучшение поведенческих показателей. От старых макетов сайтов начинают отказываться, потому что проще сделать новый, чем пытаться что-то исправить на старом. Растет предложение услуг шаблонов сайтов, начинается конкуренция за удобные и красивые макеты веб-ресурсов.

Острова

Алгоритм «Острова» — внедрена технология отображения интерактивных блоков в результатах поиска, позволяющая пользователю взаимодействовать с сайтом прямо на странице поиска Яндекса.Алгоритм был запущен в июле 2013 года с предложением веб-мастерам активно поддерживать бета-версию и использовать шаблоны для создания интерактивных «островков». Сейчас технология тестируется в закрытом режиме.

Характеристики

Теперь при поиске информации, которую можно узнать сразу из поиска, пользователю предлагались «островки» — формы и другие элементы, с которыми можно работать, не заходя на сайт. Например, вы ищете определенный фильм или ресторан.Для фильма в поиске и справа от него будут отображаться блоки с обложкой фильма, его названием, актерским составом, часами прохождения сеансов в кинотеатрах вашего города и формой покупки билетов. Ресторан покажет его фото, адрес, телефоны, форму бронирования столика.

результатов

Ничего существенного в ранжировании сайтов поначалу не изменилось. Единственное, что стало заметно, так это появление веб-ресурсов с интерактивными блоками на первом месте и справа от результатов поиска.Если количество сайтов, принявших участие в бета-тестировании, было значительным, они могли вытеснить обычные сайты за счет своей привлекательности и цепляемости для пользователей. Оптимизаторы подумали об улучшении видимости своего контента в результатах поиска, добавив больше фото, видео, оценок и отзывов. Интернет-магазины живут лучше — правильно настроенные карточки товаров могут стать отличным интерактивным «островком».

Минусинск

Алгоритм

Минусинск — при определении SEO-ссылок как таковых, которые были куплены для искажения результатов ранжирования в поиске, на сайт ставился фильтр, который значительно портил позиции сайта.Объявлено Минусинском в апреле 2015 года, полностью вступило в силу в мае того же года. Именно с этим алгоритмом связано известное.

Характеристики

Перед выпуском Минусинска Яндекс в 2014 году для проверки отключил влияние SEO-ссылок на многие коммерческие ключи в Москве и проанализировал результаты. Результат оказался предсказуемым — купленная ссылочная масса все равно используется, но для поисковика это спам. Минусинская проблема была отмечена в тот день, когда владельцам сайтов пришлось почистить ссылочные профили, а бюджет, потраченный на ссылочное продвижение, использовать для улучшения качества своего интернет-ресурса.

результатов

«Авторитетные» сайты, вышедшие в ТОП благодаря массовой закупке ссылок, улетели с первых страниц, а некоторые получили санкции за нарушение правил. Качественные и молодые сайты, не обнаглевшие на обратных ссылках, вдруг оказались в ТОП-10. «Попавшие под раздачу» сайты, не желая долго ждать, создавали новые площадки, перенося контент и ставя пустышку на старые, или хитро пошаманили с редиректом. Примерно через 3 месяца они нашли дыру в алгоритме, которая позволяет убрать этот фильтр практически моментально.

Начинает массово улучшаться удобство использования и улучшаться содержание. Ссылки приобретаются с еще большей осторожностью, а контроль обратных ссылок становится одной из функциональных обязанностей оптимизатора.

По данным на сегодня — при неумелой закупке ссылок — даже за 100 ссылок можно получить фильтр. Но если ссылочная масса правильно разбавлена, то можно смело покупать тысячи ссылок как в старых добрых. То есть фактически — ссылочные бюджеты на это самое разбавление значительно выросли, в роли толп и ссылочек.

Владивосток

Алгоритм «Владивосток» — внедрение в поиск технологии проверки сайта на полную совместимость с мобильными устройствами. Полноценный старт проекта состоялся в феврале 2016 года.

Характеристики

Яндекс сделал очередной шаг навстречу мобильным пользователям. Специально для них был разработан алгоритм Владивосток. Теперь для лучшего ранжирования в мобильном поиске сайт должен соответствовать требованиям мобильности. Для того чтобы опередить своих конкурентов в результатах поиска, интернет-ресурс должен корректно отображаться на любом веб-устройстве, включая планшеты и смартфоны.Владивосток проверяет отсутствие java и flash плагинов, адаптивность контента к расширению экрана (емкость текста по ширине дисплея), читабельность текста и возможность удобного нажатия на ссылки и кнопки.

результатов

Только 18% сайтов оказались мобильно готовыми к запуску алгоритма «Владивосток» — остальным пришлось быстро избавляться от «тяжести» на страницах, которые не отображаются или мешают корректному отображению контента на смартфонах и планшетах.Главный фактор, влияющий на снижение сайта в мобильной поисковой выдаче, — поведение мобильного пользователя. В любом случае, пока. Ведь идеально мобильных сайтов не так уж и много, поэтому свободные места в поиске занимают те, которые способны предоставить пользователю максимально комфортные условия, пусть и не полностью. Сайты, не адаптированные под мобильные устройства, не выбрасываются из мобильного поиска, а просто ранжируются ниже тех, кто добился лучших результатов в повышении качества обслуживания умных пользователей.На данный момент самый популярный вид заказа верстки сайта — адаптивный, а не мобильный, как можно подумать. Сайты, прошедшие все требования алгоритма, получают максимальное количество мобильного трафика в своей нише.

Google: история создания и развития алгоритмов

Алгоритмы и фильтры Google до сих пор не до конца понятны русскоязычным оптимизаторам. Для Google всегда было важно скрывать подробности о методах ранжирования, объясняя это тем, что «приличные» сайты ничего не боятся, а «нечестным» лучше не знать, что их ждет.Поэтому об алгоритмах Google до сих пор слагают легенды и много информации удалось получить только после того, как были заданы вопросы о поддержке, когда сайт просел в поисковой выдаче. У Google было столько мелких улучшений, что не счесть, а зарубежная ПС просто отмалчивалась на вопросы, что именно изменилось. Рассмотрим основные алгоритмы, которые существенно повлияли на позиции сайтов.

Кофеин

Алгоритм «Кофеин» — на первой странице поиска может быть сразу несколько страниц одного сайта по бренду, есть возможность предпросмотра.Запуск состоялся в июне 2010 года.

Характеристики

Подсветка сайтов компаний при поиске бренда. Рядом со строкой с выводом появляется «лупа» для предварительного просмотра. Ключевые слова по брендам дают положительную динамику роста позиций интернет-ресурса в целом. Обновился индекс Page Rank, при этом увеличился PR на известных и посещаемых сайтах.

результатов

Оптимизаторы стали уделять больше внимания брендингу сайта, включая цветовые схемы, логотипы, названия.Ключевые слова для бренда особым образом выделяли страницы сайта в поиске, и при переходе с такой фразы на главную страницу посетителя росла его позиция в поисковой выдаче (если до этого ресурс не был лидером ). SEO-оптимизаторы стали покупать больше ссылок для повышения «цитируемости». пробиться в ТОП выдачи молодым и непризнанным брендам было практически невозможно.

Панда

Алгоритм Panda — это технология проверки сайта на качество и полезность контента, включающая множество факторов CEO.Черные SEO-сайты исключаются из поиска. Анонсирован Panda в январе 2012 года.

Характеристики

Панда вышла на поиски и очистила его от мусора. Именно об этом можно говорить после того, как из выдачи Google исчезло множество сайтов, не соответствующих ключевым запросам. Алгоритм обращает внимание на: спам ключевыми словами и их неравномерное использование, уникальность контента, постоянные публикации и обновления, активность пользователя и его взаимодействие с сайтом. Положительным фактором считалось пролистывание страницы посетителем до конца со скоростью чтения.

результатов

После включения Панды огромное количество сайтов поддалось санкциям со стороны поисковика Google и поначалу все думали, что это связано с участием в ссылочных пирамидах и покупкой ссылочных масс. В результате руководители провели процесс тестирования алгоритма и проанализировали влияние. Вывод экспериментов состоял в том, что «Панда» все же проверяет качество сайта на ценность для посетителей. Интернет-ресурсы перестали копипастить и активно занялись копирайтингом.Поведенческие факторы улучшились за счет трансформации структуры сайта в более удобные варианты, а важной частью оптимизации стали ссылки внутри статей с помощью специального выделения. Популярность SEO как услуги быстро росла. Замечено, что сайты, не соответствующие правилам Panda, очень быстро исчезали из поиска.

Макет страницы

Алгоритм

Page Layot — это технология борьбы с поисковым спамом, которая вычисляет соотношение полезного контента к спаму на страницах веб-сайтов.Запущен в январе 2012 года и обновлен до 2014 года включительно.

Характеристики

«Разметка страницы» был создан после многочисленных жалоб пользователей на недобросовестных владельцев сайтов, у которых на страницах было очень мало подходящего контента или нужные данные оказывались труднодоступными, а иногда и вовсе отсутствовали. Алгоритм рассчитывал в процентах наличие на странице входящего запроса релевантного контента и спама. На неприемлемые сайты были наложены санкции и сайт был выброшен из поиска.К несоблюдению правил размещения документов относилась и забитая рекламой шапка сайта, когда для просмотра текста требовался переход на второй экран.

результатов

Слишком заспамленные рекламой сайты слетели с позиций, хотя контент на страницах оптимизирован под ключевые слова в модерации. Запросы, не относящиеся к запросам, были переведены в результаты поиска. Но сайтов, нагло не соблюдающих правила и не заботящихся о комфорте посетителей, было не так много.За три обновления алгоритма примерное количество ресурсов, попавших под фильтр, оказалось не более 3%.

 (Венеция)

Алгоритм «Венеция» — геопривязка сайта к конкретному региону с учетом наличия названий городов на страницах сайта. Выпущен в феврале 2012 г.

Характеристики

«Венеция» потребовала, чтобы веб-мастера имели на своих сайтах страницу «О нас» с указанием адреса местонахождения, не обращая внимания на то, что фактического местонахождения у компании может и не быть.В контексте алгоритм искал названия городов, чтобы отобразить отдельную страницу для указанного в нем региона. Разметка Schema-creator.org стала использоваться для объяснения поисковой системе ее географической принадлежности.

результатов

Сайты появились в результатах поиска по тем регионам, которые они не упоминают на своих страницах, без учета геонезависимых запросов. Оптимизаторы активно включают геозависимые ключевые слова и пытаются создать микроразметку. Контент на каждой странице персонализирован для каждого конкретного города или региона в целом.Для повышения позиций в выбранном регионе стали активно использовать локализованное линкбилдинг.

 (Пингвин)

Алгоритм Penguin — умная технология определения веса сайтов и качества обратных ссылок. Система редактирования раневых показателей авторитетности интернет-ресурсов. Запущен в поиск в апреле 2012 года.

Характеристики

«Пингвин» направлен на войну с покупкой обратных ссылок, неестественным, то есть искусственным, набором авторитета на сайте.Алгоритм формирует свою базу значительных ресурсов, исходя из качества обратных ссылок. Мотивацией для запуска Пингвина стало появление оптимизаторов ссылок, когда любая ссылка на веб-ресурс имела одинаковый вес и поднимала такой сайт в поисковой выдаче. Кроме того, в поиске обычные профили пользователей социальных сетей стали ранжироваться наравне со стандартными интернет-ресурсами, что еще больше популяризировало продвижение обычных сайтов с помощью социальных сигналов. Одновременно с этими возможностями алгоритма система начала бороться с неактуальными вставками поисковых запросов в ключевые слова и в доменные имена.

результатов

Пингвин «пропустил» многие сайты в поисковой выдаче за неестественный рост обратных ссылок и нерелевантность контента запросам пользователей. Значение каталогов и сайтов, продающих ссылки, быстро падало до минимума, а авторитетные ресурсы (новостные, тематические и околотематические) росли на глазах. Благодаря внедрению алгоритма «Пингвин» практически все паблики пересчитали PR. Популярность массовой покупки обратных ссылок резко упала.Сайты максимально стали подгонять ключевые фразы к контенту на страницах сайтов. Началась «мания актуальности». Установка социальных кнопок на страницах в виде модулей была массовой из-за быстрой индексации аккаунтов социальных сетей в поиске.

Пират

Алгоритм «Пират» — технология реагирования на жалобы пользователей и выявления фактов нарушения авторских прав. Система запущена в августе 2012 года.

Характеристики

«Пират» принял жалобы авторов на нарушение их авторских прав владельцами сайтов.Помимо текстов и картинок, основной удар приняли на себя сайты с видеоконтентом, на которых размещались пиратские съемки фильмов из кинотеатров. Также были отфильтрованы описания и обзоры видео — теперь нельзя было копировать-вставлять под страхом введения санкций. За большое количество жалоб на сайт о нарушениях такая платформа была выкинута из результатов поиска.

результатов

По итогам первого месяца работы Google Pirate практически на всех сайтах, включая видеохостинги и онлайн-кинотеатры, были заблокированы для просмотра миллионы видеофайлов, нарушающих права правообладателей.Сайты с исключительно пиратским контентом попадали под санкции и выпадали из поиска. Массовое изъятие «украденного» контента продолжается и по сей день.

Колибри (Колибри)

Алгоритм Hummingbird — это введение технологии понимания пользователей, когда запросы не соответствуют точным вхождениям. Система «определение точных желаний» запущена в сентябре 2013 года.

Характеристики

Теперь пользователь не менял фразу, чтобы точнее найти нужную информацию.Алгоритм Колибри позволял не искать по прямым точным вхождениям, а возвращал результаты из базы «расшифровки желаний». Например, пользователь вбил в строку поиска фразу «места для отдыха», а «Колибри» ранжировался в поисковых сайтах с данными о санаториях, отелях, спа-центрах, бассейнах, клубах. То есть в алгоритме была сгруппирована стандартная база с человеческими фразами об их описании. Понимание системы значительно изменило результаты поиска.

результатов

С помощью технологии Колибри сео-оптимизаторы смогли расширить свое семантическое ядро ​​и привлечь на сайт больше пользователей за счет морфологических ключей.Ранжирование сайтов было доработано, ведь теперь учитывались не только вхождения прямых ключевых фраз и текстовых запросов, но и околотематические пожелания пользователей. Появилось понятие LSI-копирайтинг — написание текста с учетом скрытой семантической индексации. То есть теперь статьи писались не только с вставкой ключевых слов, но и максимально включали синонимы и околотематические фразы.

  (Голубь)

Алгоритм Dove — это система для локализации пользователей и привязки результатов поиска к местоположению.Технология запущена в июле 2014 года.

Характеристики

Местонахождение пользователя теперь играет ключевую роль в получении результатов. Органический поиск превратился в сплошную геолокацию. Привязка сайтов к картам Google сыграла особую роль. Теперь по запросу пользователя алгоритм сначала искал ближайшие к местоположению или целевому контенту сайты, затем шел на удаление у посетителя. Органический выпуск значительно изменился.

результатов

Локальные сайты быстро поднялись в поиске и получили локальный трафик.Интернет-сайты без геозависимости потеряли свои позиции. Снова началась борьба за каждый город и количественно увеличились ситуации, когда одинаковые сайты стали выдавать одинаковые сайты с ограниченным содержанием и привязкой к разным локациям. До получения точной информации о реализации алгоритма Pigeon в русскоязычном интернет-поиске многие веб-мастера думали, что попали под санкции Penguin.

  (для мобильных устройств)

Алгоритм Mobile-Friendly — внедрение технологии проверки сайтов на адаптивность под мобильные устройства.Система была запущена в апреле 2015 года и успела «посерфить» в Интернете как: «Мобильный армагеддон» (mobilegeddon), «Мобильный апокалипсис» (mobilepocalyse, mobocalypse, mopocalypse).

Характеристики

Mobile-Friendly открыл новую эру для мобильных пользователей, рекомендуя оптимизаторам срочно обеспечить комфортное пребывание мобильных посетителей на своих сайтах. Адаптивность сайтов под мобильные устройства стала одним из важнейших показателей заботы владельцев сайтов о своих посетителях.Неадаптивные веб-сайты должны были как можно быстрее исправлять недостатки: избавляться от плагинов, не поддерживаемых на планшетах и ​​смартфонах, настраивать размер текста для расширения разных экранов, удалять модули, мешающие посетителям с маленьким экраном перемещаться по сайту. Кто-то просто сделал отдельную мобильную версию своего интернет-ресурса.

результатов

Заранее подготовленные к такому развороту ресурсы выделены среди других интернет-сайтов в результатах поиска, а трафик с различных не десктопных устройств на такие сайты увеличился более чем на 25%.Сайты, полностью не отвечающие на запросы, были понижены в мобильном поиске. Свою роль сыграла ориентация на мобильность — ресурсы свели к минимуму наличие тяжелых скриптов, рекламы и страницы, естественно, стали загружаться быстрее, учитывая, что большинство пользователей с планшетов/смартфонов пользуются мобильным интернетом, который в разы медленнее стандартного.

Резюме

Вот и все

Теперь вы знаете, как за эти годы эволюционировал поиск как обычных пользователей, так и сайтов, попавших в раздачу.

Leave a Reply