Время чтения 20 минут | прочитали: 2062

← Вернуться в оглавление Учебника

Алгоритмы «Яндекса»

Позиции сайта в поисковой выдаче зависят от алгоритмов «Яндекса» – это знают даже люди, далекие от SEO. Но что именно это за алгоритмы, как они работают, как влияют на пользователей и контент? Мы подробно ответим на все вопросы и заодно расскажем, как совершенствовались поисковые роботы «Яндекса» за последние десять лет.

Принципы ранжирования развиваются и модернизируются – вместе с ними меняется и оптимизация сайтов. Начиная с 1997 года, когда была основана компания «Яндекс», поисковик многократно менял свою политику относительно того, как определять релевантность страниц, как подбирать информацию по запросам. Отслеживая хронологию, можно отследить общий вектор изменений. Однако нас интересуют только актуальные алгоритмы, поэтому мы рассмотрим хронологию с 2007 по 2021 год.

Поисковые алгоритмы «Яндекса» в порядке их появления и внедрения

  • «Версия 7», «Версия 8» и «Восьмерка SP1» – роботы, которые анонсировали в 2007-м. Они предложили новую формулу ранжирования, фильтрацию прогонов, позволили авторитетным источникам занять более высокое положение в выдаче.
  • «Магадан», «Магадан 2.0» и «Находка» – появились в 2008 году. Они учитывали уникальность информации, внедрили новые классификаторы запросов, учет стоп-слов при анализе контента. Также «Находка» продемонстрировала новый подход к машинному обучению.
  • «Арзамас», «Анадырь», «Снежинск» – алгоритмы, которые «Яндекс» запустил в 2009-м. «Арзамас/Анадырь» начали учитывать геоданные пользователя, который запрашивает поиск. Они же первыми внедрили исключение омонимии. В том же году обновление этих роботов позволило усовершенствовать региональную формулу ранжирования, улучшить выдачу по геозависимым и геонезависимым запросам. «Снежинск» опирался на новые принципы машинного обучения, благодаря нему при формировании выдачи «Яндекс» стал учитывать большее количество факторов.
  • «Конаково», «Обнинск», «Краснодар» – поисковые роботы, которые начали работу в 2010 году. «Конаково» – неформальное, но очень популярное наименование алгоритма, который ввел новые принципы работы с геонезависимыми запросами. «Обнинск» ввел в оборот новые факторы ранжирования, значительно увеличил производительность поисковика. «Краснодар» повысил разнообразие ответов, он также научился разбивать запрос пользователя на составные части и повысил локализацию выдачи по геозависимым запросам.
  • «Рейкьявик» – единственное, но важное нововведение 2011 года. Этот алгоритм стал первым шагом к персонализации работы поисковой системы. Он начал учитывать языковые предпочтения пользователей.
  • «Калининград» – появление этого робота в 2012-м стало логичным продолжением тенденции, заданной «Рейкьявиком». Он начал повышать при ранжировании позиции сайтов, которые человек открывает чаще прочих. Он также начал учитывать долгосрочные интересы пользователя и выводить подсказки.
  • «Дублин» улучшил персонализацию выдачи. Этот алгоритм, запущенный в 2012 году, научился подстраиваться под пользователя на ходу, учитывая его сиюминутные интересы.
  • «Началово» и «Одесса» – роботы 2014 года запуска. «Началово» отменило учет ссылок и целого перечня ссылочных факторов, однако нововведения затронули только коммерческие запросы и только Московский регион. «Одесса» была экспериментальным проектом, который быстро завершили. Она предполагала новое оформление сервисов, интерактивные подсказки. Тем не менее, этот робот «Яндекса» быстро канул в Лету: в том же году эксперимент признали неудачным.
  • «Амстердам», «Минусинск», «Киров» – новшества 2015-го. После запуска «Амстердама» «Яндекс» упорядочил и сохранил в собственной базе множество объектов, которые пользователи ищут в сети. Именно этот робот начал выводить общую информацию о предмете интереса справа от результатов. Но настоящей революцией стал «Минусинск» – его старт сильно повлиял на СЕО. Этот алгоритм понижает в выдаче сайты с чрезмерным количеством ссылок в профиле. В будущем он совершенствовался. «Киров» начал учитывать дополнительные поведенческие факторы. Сначала действие этого робота охватывало только Московский регион, но позже он начал действовать повсеместно.
  • «Владивосток», «Палех» – роботы 2016 года. Ко времени их появления значительно выросла доля пользователей мобильных устройств, поэтому «Владивосток» начал учитывать, насколько сайт адаптирован к планшетам и смартфонам. Адаптированные ресурсы получили преимущества в выдаче. «Палех» усовершенствовал работу поисковой системы благодаря учету всего семантического вектора. Анализ документов стал более сложным, в его основу легла специально созданная нейросеть, так что улучшились результаты для редких запросов и запросов, сформулированных более естественно, живо.
  • «Баден-Баден», «Королев» – новинки 2017-го, которые существенно повлияли на оптимизацию сайтов. «Баден-Баден» научился определять «переоптимизированные» площадки, благодаря чему неестественные тексты, написанные «для робота», стали отходить в прошлое. Теперь в механизм поисковика был встроен принцип, который ухудшает позиции сайтов с таким контентом. «Королев» продолжил тренд, заданный в прошлом году «Палехом». То есть он научился определять смысл запросов и анализировать весь текст на странице, чтобы найти наиболее подходящую информацию.
  • «Андромеда» – появилась в 2018-м и принесла с собой глубокое изменение поиска, затронув среди прочего отображение колдунщиков, интеграцию с другими сервисами и быстрые ответы.
  • «Вега» – обновление 2019 года, объединившее сразу несколько разных направлений. «Вега» разбила базы данных на смысловые кластеры, что позволило многократно ускорить поиск и улучшить индексацию. Она также ввела пререндеринг, чтобы нарастить скорость отображения результатов, и внедрила экспертность оценок, чтобы оптимизировать качество информации. Последняя тенденция затронула тематики, где важно именно мнение экспертов, однако это новинка может быть первым шагом к борьбе с дезинформацией в сети. Наконец, «Вега» научилась учитывать положение пользователя не только на уровне города, но и на уровне района.
  • YATI – алгоритм 2020 года, который использует нейросети для более глубокого анализа смысла запросов и документов. Это важное изменение – оно многократно улучшило работу поисковой системы.
  • Y1 – самая последняя версия робота, вобравшая более двух тысяч изменений. В ее основе – искусственные нейронные сети-трансформеры, более ранние роботы и даже языковая модель, способная генерировать тексты с учетом стилистики. Этот алгоритм умеет искать информацию внутри видео, оценивать сайты по отзывам пользователей, проводить визуальный поиск. К тому же он отличается более высоким уровнем безопасности, чем все предыдущие версии.

Если оценить динамику развития «Яндекса», можно увидеть, что поисковик движется в сторону более комплексного и сложного анализа контента, а также запросов пользователей. Он учится отсеивать сайты, которые пытаются повысить собственные позиции не за счет улучшения качества контента, а за счет трюков и всевозможных инструментов. Цель поисковика – предоставить пользователям качественную информацию, и вся логика перемен в работе «Яндекса» подчиняется этой цели.

Именно благодаря изменению в работе поисковиков с 2007 года значительно сократилось количество сайтов с текстами, написанными для галочки, с большим количеством ключевых слов или даже списками «ключей» вместо контента.

Как работают актуальные алгоритмы «Яндекса»

В основе действующих алгоритмов «Яндекса» лежит технология машинного обучения. То есть сайты оценивают роботы, но это роботы, которые учились анализу и восприятию информации у человека. «Обмануть» машинное обучение крайне сложно, поскольку благодаря нему робот учитывает множество факторов при оценке релевантности страницы.

СЕО-специалисты теперь имеют дело с роботами, чья «сложность мышления» почти не уступает человеческой, но которые могут мгновенно проанализировать колоссальные объемы информации. Чтобы понять, как оптимизировать сайт с учетом технологии машинного обучения, придется взглянуть на топ выдачи по запросам, по которым вы хотите продвигаться.

Оценивайте топ не по одному запросу, а сразу по всем основным «ключам». Если какие-то сайты оказываются в числе первых регулярно, значит, робот оценивает их контент как качественный. Взглянув на конкурентов, вы сможете составить представление, что примерно необходимо, чтобы ваша площадка тоже попала в топ.

Роботы «Яндекса» способны не только учиться, но и переучиваться. Это необыкновенно гибкие механизмы, которые используют сложные принципы обучения. Почему это важно для СЕО? На практике способность поискового робота переучиваться означает, что ваша площадка не может «понравиться» ему раз и навсегда. Например, если вы искусственно «накрутите» поведенческие факторы, робот со временем научится распознавать такое мошенничество, и это негативно отразится на позициях сайта.

«Минусинск»

Теперь давайте более подробно поговорим о таком роботе «Яндекса», как «Минусинск». Впервые его запустили в 2015 году, но с тех пор неоднократно совершенствовали. Механизм назвали в честь реально существующего русского города – это был период, когда компания выбирала географические наименования для своих роботов.

«Минусинск» принес своеобразную революцию в СЕО. До его появления специалисты работали над количеством, но не качеством ссылок, поскольку поисковые роботы не могли оценить линки. «Минусинск» изменил правила игры: сайты с большим количеством купленных ссылок начали стремительно терять свои позиции, поскольку основная задача робота заключается в обнаружении низкокачественной ссылочной массы и отсеивании недобросовестных ресурсов.

«Минусинск» все еще действует, хотя его и усовершенствовали. Поэтому покупка большого числа ссылок теперь не имеет смысла – это только ухудшает положение площадки.

«Киров»

Главная задача «Кирова» – предлагать пользователям новые сайты. Возраст ресурса все еще остается важным показателем с точки зрения поисковых роботов. Однако благодаря «Кирову» у новичков появляется шанс. Разработчики механизма исходили из того, что на новом сайте контент может оказаться намного интереснее и качественнее, чем на старых ресурсах.

«Киров» в случайном порядке предлагает пользователям новые площадки. Робот отслеживает реакцию людей: если сайт нравится читателям/покупателям, происходит сбор данных и совершенствование механизма. Сам по себе «Киров» не меняет положение сайта в поисковике, поскольку этот робот разработали для сбора данных. Однако на основе собранной им информации действуют другие механизмы, которые уже непосредственно формируют страницы поиска.

«Владивосток»

Это важный поисковый механизм – «Владивосток» существенно облегчил задачу пользователям, но владельцам сайтов и разработчикам он ее только усложнил. Дело в том, что этот робот появился, когда число людей, использующих мобильные устройства, превысило количество тех, кто обращается к поисковику через ПК. Робот начал учитывать, оптимизированы ли площадки под смартфоны. Те, кто адаптировал свои ресурсы, получили лучшие позиции, чем те, кто этого не сделал.

Сейчас важно помнить, что больше половины людей, которые откроют сайт, сделают это именно со смартфона. А значит, сервис нужно адаптировать под мобильные устройства. Не только потому, что иначе «Владивосток» подвинет вас в рейтинге, но еще и потому, что неадаптированная верстка заставит пользователей быстро закрыть страницу. А это уже ухудшит поведенческие факторы.

«Баден-Баден»

Этот робот положил конец «переоптимизированным» текстам. Он стал продолжением более раннего механизма «Палех». Введение этих новшеств в свое время послужило причиной для слухов, будто СЕО как профессия уходит в прошлое. Эти слухи были связаны вовсе не со снижением актуальности СЕО, которого не было, но с растерянностью многих специалистов. Они были не готовы к тому, что поисковик начнет снижать позиции сайтам с текстами для «роботов».

Предшественник «Баден-Баден», «Палех», научился разбивать запросы на составные части – так появилось техническое разделение частотности ключевых слов. Создатели «Баден-Баден» предупреждали: если страница соответствует запросу, в ней и так будет вся необходимая лексика, поэтому не нужно пытаться искусственно насытить тексты «ключами».

«Королев» и «Андромеда»

Робот под названием «Королев» воспринимает не предложения, но текст полностью. Соответственно, «Королев» оценивает весь текст, а не отдельные его части, при формировании отклика. Он изменил оценку уникальности текстов.

«Вега»

Это сложный механизм на основе искусственных нейронных сетей, использующий огромную базу данных для обработки запросов. «Вега» умеет оценивать такой показатель, как экспертность текстов, отсеивая тем самым недостоверную информацию. Это критически важно при работе с информацией, которая требует экспертной оценки, например, медицинских данных. Появление «Вега» позволило решить вопрос, как не допустить распространения антинаучной информации.

Почему важно понимать «логику» поисковика? Только зная ее, вы можете выбрать правильную стратегию и тактику продвижения, избежать ошибок и быстро добиться хороших результатов. Но главное – поисковики требуют сделать сайт интересным, удобным и полезным для людей, а не для роботов. Потому и обучают свои механизмы сложному анализу на основе нейронных сетей.

Это не отменяет актуальности оптимизации, но подразумевает более осознанный подход к работе над контентом и сайтом в целом. Для продвижения нужны качественные внешние ссылки, актуальная информация, хорошо написанный уникальный текст. Желательно не перестараться с количеством рекламы, даже если площадка существует за ее счет, – пользователи приходят не за рекламой. По сути восприятие сайтов поисковиком все больше приближается к человеческому восприятию – и это нельзя не учитывать.

← Вернуться в оглавление Учебника

Смотрите также:

Категории:

Алгоритмы Аналитика Аудит сайта Бизнес Дизайн Инструменты Кейсы Коммерческие факторы Контент Маркетинг Мета-теги Методы продвижения Оптимизация сайта Перелинковка Поведенческие факторы Продвижение сайта Ранжирование сайта Региональность Семантическое ядро Специалисты Ссылки Стоимость раскрутки сайтов Технические факторы Типы сайтов Трафик Фильтры Юзабилити Яндекс сервисы