Metatag — Помогаем вашему бизнесу
Продвигаем на лидирующие позиции
Увеличиваем продажи
Формируем идеальную репутацию
Продвигаем на лидирующие позиции
Увеличиваем продажи
Формируем идеальную репутацию
Metatag

Слив алгоритмов Google — анализ и практическое применение

Слив алгоритмов Google — анализ и практическое применение
Содержание

    В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, инсайдов не слишком много. Но все же порассуждать есть о чем. Понимая, что Google сохраняет и обрабатывает, можно косвенно определять важность информации для ранжирования.  Оговорюсь, что все содержание этой статьи – частное мнение отдельно взятого сеошника. 

    Ключи в доменном имени работают

    Тема старая и холиварная. Google действительно утверждал, что доменное имя не имеет значения. Даже проходила информация о том, что поисковик наказывал сайты с тремя ключами в имени. Говорилось о EDM-фильтре и полном отсутствии преимущества ключевых слов в домене. Но мы, сеошники, всегда знали, что если правильно выбрать доменное имя, оно уже само по себе даст огромную пользу. 

    Что можно вынести с практической точки зрения? По-прежнему, излишек ключей в домене не принесет ничего хорошего. 

    Например, домен купить-холодильник-в москве-недорого.рф – это плохо. Излишне примитивно. Или burenie-skvazhin-na-vodu-v-moskve.ru тоже плохо. Умный Google прекрасно распознает такую топорную манипуляцию. Есть множество куда более изящных вариантов. Для того же бурения на воду хорошие примеры:

    • burenie.ru
    • burenie-skvazhin.ru
    • burenie-na-vodu.ru
    • burenie-msk.ru

    Конечно, такие домены могут быть заняты. А освободившись, стоят дорого. Но никто и не обещал, что силу животворящего домена легко применить.

    “Песочница” для молодых сайтов работает

    Не считаю это интересной новостью. Да, Google это отрицал. Скорее всего потому, что “песочница” перестала быть отдельным сдерживающим алгоритмом, а давно стала частью большого основного алгоритма. Но сути это не меняет. Какое-то время молодой сайт даже с очень хорошим контентом будет “настаиваться”. Краулинговый бюджет ему достанется крохотный. Индексация пойдет критически медленно. Любой, кто продвигал новодел, в целом это понимает.

    Выводы просты и беспощадны. Купить домен с историей. И желательно с точным вхождением вашего вида деятельности, о чем говорилось в предыдущем пункте. Конечно, продвигать молодые сайты можно весьма эффективно. Но просто нужно заложить время на “песочницу”, она неизбежна. 

    Если агентству приходит новодел, с ним интересно работать, его можно классно позиционировать. Он точно чист от шлейфа прошлого – возможно, спамного продвижения, накруток и пр. Но у клиента не должно быть завышенных ожиданий. За три месяца в топ ему не попасть. 

    Google использует систему EWOK

    Мы узнали, что поисковая система нанимает людей, которые вручную просматривают сайты. Они могут выбрать вариант выдачи, который им нравится больше. На все есть специальные критерии. Насколько это новость? Нинасколько. Потому что, кажется, речь идет об асессорах или, во всяком случае, о чем-то близком. Живые люди по заданию Google отсматривают сайты и выдачу. Много раз уже в Интернете появлялись правила для асессоров. Олды в SEO понимают, что рано или поздно сайт попадет под асессорскую проверку. Кто-то облеченный властью поставит баллы и может сильно поменять ранжирование вашего проекта.

    На практике мы делаем все тоже самое, что и до этой информации. Обязательно прорабатываем юзабилити. Не забываем о качественном контенте. Сайт должен быть информативен, удобен, понятен человеку. Только планомерная и постоянная работа, только хардкор.

    Google берет информацию о поведении людей из своих сервисов

    Это интересно с точки зрения человека. Может быть, немного тревожно, что за нами следят, собственно, всюду. Даже если мы отключили функции отслеживания в смартфонах и все интеграции, данные все равно собираются. С точки зрения SEO, единственный вывод, который можно сделать: Google детально знает портреты посетителей вашего сайта. Начнете крутить ПФ, наливать живых ботов и пр. – поисковик поймет это сразу и, скорее всего, не учтет эти попытки никак. 

    Траст сайта – фактор ранжирования

    Это, видимо, одна из самых горячих тем. Когда-то юные сеошники специально не использовали слово “траст” как утратившее актуальность. Однако, стоит подумать, что скрывается за этим понятием. Разумеется, траст сайта в 2024 – это далеко не перечень жирных доноров, которые на него сослались. Хотя и это тоже. Сейчас условный вес домена – гораздо более сложное понятие.

    Майская утечка сообщает нам, что есть даже разные виды авторитетности. Можно это понимать как силу сайта, связанную с его брендом, упоминаниями, известностью, посещаемостью, отзывами и еще миллионом составляющих. И траст, рассчитанный исключительно на основании действий пользователей внутри сайта. 

    Было бы интересно узнать, как коррелируют эти виды авторитарности. Например, если на относительно новом сайте слабого бренда, на который еще никто не сослался, отличные поведенческие – какой это даст буст? К сожалению, об этом подробно не рассказано.

    В применении этой информации также никаких новшеств. Качайте бренд, участвуйте в выставках и прочих мероприятиях, получайте ачивки типа “Лучший мастер года”, “Премия золотой лотос”, “Прорыв года” – словом, делайте, что можете, для того, чтобы в вашей сфере начались упоминания даже не обязательно сайта, а именно бренда. Получайте ссылки на вас в СМИ, сами публикуйте свои материалы в тематических изданиях. Ведите соцсети, ходите на подкасты – любые способы хороши. Бренд должен быть популярен, естественные упоминания о вас необходимы. Ну и не забываем про специальную авторитетность, основанную на поведении людей на сайте. Здесь снова все по классике: юзабилити, хороший дизайн, информативность и иже с ними.

    Поведенческие в Google работают

    Да, их не получится так подкрутить, как удается в Яндексе. Но Google не только не игнорирует поведение людей, а внимательно следит за ним. Выше говорили о том, как тщательно Google собирает данные из браузера. Если поисковик тратит большие ресурсы на сбор информации, он точно ее применит. 

    К сожалению, нет волшебной кнопки “сделать поведенческие хорошими”. Снова приходим к рутине. Нужен контент, отвечающий на запросы пользователей и решающий их проблемы. Нужно удобство, хорошее информирование, доверие к вам. Придется засучить рукава и проделать все работы из стандартных чек-листов по юзабилити и коммерческим факторам ранжирования.

    Отдельно скажем про сниппеты. Бытует мнение, что поведенческие  – это только процент отказов и время, проведенное на сайте. Скорее всего, уверенность в этом укоренилась потому, что это можно объективно отслеживать в Яндекс.Метрике и Google Аналитике. Но есть еще коварный поведенческий, который так просто не измерить – это великий и могучий CTR (отношение показов вашего сайта в выдаче к кликам на него). 

    Работа с CTR обсуждается давно. На практике мы должны найти способ выделиться среди конкурентов в выдаче, привлечь внимание одним только сниппетом. 

    Для начала точно надо прописать мета-теги на всех страницах как минимум адекватно. Если они генерируются – проверить, не коверкаются ли падежи, нет ли повторений и различных нелепостей. 

    Мета-теги важных страниц – прописать руками, основываясь на запросах пользователей. Если уверены в себе, можно попробовать кликбейт, но очень аккуратно. Иногда хорошо срабатывают юникоды в title. Не забываем про фавикон! Google его опять показывает. И да, фавиконы CMS из коробки – не наш путь. Плохие примеры:

    Примеры сниппетов в дефолтными фавиконами

    В улучшении CTR также нам в помощь старая добрая микроразметка. Словом, много небольших действий, внимание к мелочам.

    Ссылки работают

    Скорее всего, самая очевидная часть из слива. Мы все понимаем, что значение ссылок снизилось до определенного уровня. Но что они совсем не работают, едва ли согласится кто-то из сеошников. Условие все то же: хорошие бек-линки работают, а плохие – нет. Качественный донор – это такой, у которого много трафа и схожая тематика – тогда по ссылке на вас перейдут живые люди. Плохие, неработающие доноры – слабые сайты, крадущие чужой контент, спамные, без трафика, с плохой индексацией. По такой ссылке никто не перейдет – и Google ее не учтет. 

    Практическое применение этой информации не сулит ничего нового. По прежнему работаем с анкор-листом. Не увлекаемся коммерческими анкорами, но не игнорируем их, включаем аккуратно. Тщательно выбираем донора. Лучше один качественный, чем 50  доноров, на которые не ходят ни люди, ни роботы. За последние годы перемен в линк-билдинге не так много.

    Качество контента важно

    Здесь и до утечки вряд ли кто-то сомневался. Но есть нюанс. В документации сообщается, что Google рассчитывает среднюю метрику качества контента всех страниц. Это еще один аргумент в пользу того, что поисковики оценивают сайт в целом – и ответ неопытным заказчикам, которые требуют вывести в топ одну страницу и десяток запросов. Это не работает примерно 10 лет – и теперь мы даже имеем фактически официальное подтверждение.

    Иными словами, если убиться, качественно проработав только несколько страниц на сайте – не стоит ожидать их выхода в топы. ВЕСЬ, прямо ВЕСЬ сайт должен иметь приличный контент. Новости, забытые копипастные статьи и пр. – тоже имеют значение. В Яндексе, кстати, примерно то же самое. Только там есть еще такое понятие как “малополезные страницы”, которые можно даже в вебмастере увидеть и понять, что они тянут весь проект ко дну. 

    Авторство учитывается

    Эта часть слива кажется поинтереснее. Она описывается как “siteAuthority”. Вероятно, это развитие EAT-факторов, от которых, кстати, Google уже открестился. Но, как мы видим из утечки, хоть поисковик и сообщил, что нет никаких отдельных факторов экспертности и авторитетности, информация тщательно собирается. 

    В документации есть сообщение, что Google понимает, кто автор. Видит публикации этого человека в социальных сетях, других изданиях – и сопоставляет с контентом на вашем сайте. Кроме того, поисковик ищет связи автора с вашей компанией. Так он определяет степень “заказушности” контента. 

    Что имеем на практике: все-таки полезно показывать авторство. Но не стоит пытаться делать фейковые аккаунты специалистов в ВК и ставить их как авторов на вашем сайте. Санкции за это не придут, но и вес такого автора стремится к нулю. В идеале ваш автор должен написать хотя бы пару публикаций где-то еще, помимо вашего сайта. Хотя бы изредка публиковать что-то в своих социальных сетях. 

    Уникальность контента

    В утечке не найдено информации о том, как определить техническую уникальность. Зато есть отличное упоминание о том, что Google считает уникальностью личное мнение в контенте. Безусловно, сложно публиковать личное мнение на коммерческих сайтах, которые мы в большинстве и продвигаем. Однако можно посмотреть чуть шире и адаптировать идею. 

    К примеру, можно использовать блоки “Экспертное мнение”. Но мнение должен писать сам эксперт, у которого есть бэкграунд и публикации (см. абзац выше). Кроме того, решением может быть описание примеров из практики – то есть как бы зашивать в текст мини-кейсы. Нужно стремиться описывать что-то иначе, чем на большой массе сайтов, раскрывать свой личный опыт – умный Google оценит это как уникальную информацию и вознаградит вас.

    Обновления на сайте важны

    Сообщается, что Google отлично понимает, когда на странице действительно были обновления. Метрику можно интерпретировать как “значимое изменение контента”. Когда Google это видит, он идет переобходить документ. То есть теперь однозначно понятно, что директивы <lastmod> в sitemap и подобные ухищрения без реального изменения ничего не дают. Есть упоминание, что Google хранит порядка 20 последних версий страницы. То есть ему доступна довольно глубокая ретроспектива.  

    Также указывается на метрику свежести контента. Из чего мы можем сделать вывод, что однажды написанный – даже самый крутой – контент устаревает. Google ищет свежее и рассматривает его как более ценное. Полагаю, это не отменяет силу “вечнозеленого” контента, однако, прямо говорит о том, что даже контент на неменяющиеся темы нужно актуализировать, обновлять, что-то дополнять и пр.

    Хочется отметить такую особенность. Довольно часто сайт заходит на продвижение со старым контентом, давно без обновлений чего-либо. Сеошник готовит стратегический план и начинает менять разное-всякое: править мета-теги, заменять технически неуникальные тексты, добавлять изображения, вносить множество рекомендаций. И никогда нельзя совершенно точно отследить, какое именно изменение дало лучший результат. 

    Данная часть утечки может говорить о том, что имеется некая накопительная сила обновлений. Условно, сайт “свежеет”. Может, тексты и не стали сильно лучше, но они стали новыми. Может, изображения не самые красивые, но они новые. Вся эта масса новинок  только одним своим появлением способна толкать сайт вверх. Это кажется очень интересным. Но не говорит, конечно, о пользе хаотичного изменения ради изменений. Я здесь про качественные изменения и вдумчивость!

    Вместо заключения

    Слив интересно поизучать, поискать в нем новые идеи. Но он, разумеется, не дает в руки кнопку “В топ!”. Все так же множество критериев оценки сайта. Так же неизвестно, какие из них важнее для ранжирования. Но понятно, что наполнение, удобство, ссылки, авторство, уникальность и поведение пользователей все так же важны. Нельзя одним-двумя простыми действиями занять высокие позиции в Google. Поэтому продолжаем планомерно работать над сайтами, не надеясь на одну волшебную технологию.

    Виталий Вагнер CEO Metatag
    Автор статьи

    Виталий Вагнер — профессионал в области seo-оптимизации с 12-летним стажем работы на российском и международном рынках. Занимается созданием, продвижением, раскруткой и сопровождением интернет-проектов любой сложности, тематики и масштабов.

    Поделиться
    Бесплатная консультация Заказать консультацию

    Определим наиболее подходящую стратегию для поискового продвижения

    Бесплатная консультация

    Бесплатная консультация

    Заполните данные ниже, и мы свяжемся с вами в течение двух рабочих дней

      Введите имя
      Введите номер телефона

      Нажимая кнопку Отправить,
      я подтверждаю свое согласие политикой конфиденциальности

      Похожие статьи

      Слив алгоритмов Google — анализ и практическое применение

      В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, […]

      Читать дальше
      Слив алгоритмов Google — анализ и практическое применение

      В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, […]

      Читать дальше
      Слив алгоритмов Google — анализ и практическое применение

      В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, […]

      Читать дальше
      Слив алгоритмов Google — анализ и практическое применение

      В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, […]

      Читать дальше
      Слив алгоритмов Google — анализ и практическое применение

      В конце мая 2024 SEO-мир увидел попавшую в Сеть информацию о некоторых принципах ранжирования Google. Точнее, не самой поисковой машины, а API, которую она использует. Часть тезисов вполне понятна и представляет собой базу или ясные сигналы. Некоторое содержание вообще сложно как-либо интерпретировать с практической точки зрения. В целом, многое из утечки и так всем известно, […]

      Читать дальше