- BrainTools - https://www.braintools.ru -
Всем привет! Меня зовут Андрей Попов, я SEO-специалист в AGIMA [1]. В 2025 году работа с поисковыми системами кардинально изменилась: Google и ИИ-ассистенты вроде Алисы, Gemini или Chat GPT всё чаще не просто ищут страницы по ключам, а сами «понимают» смысл контента и выдают пользователю готовый ответ.
И вот что самое интересное: решения о том, какой контент попадает в эту выдачу, принимаются не только по релевантности или ссылкам. Всё чаще Google опирается на скрытые метрики доверия — внутренние сигналы, которые оценивают не просто текст, а репутацию источника, авторитет автора, надежность бренда и даже «пограничность» самой темы.
Для SEO-специалиста это меняет правила игры. Недостаточно просто писать статьи и оптимизировать метатеги — нужно работать с невидимым слоем: формировать доверие, закреплять сущности и регулярно подтверждать экспертность.

Иногда Google приоткрывает завесу тайны над своими механизмами, и каждый раз это похоже на взгляд в черный ящик. Так произошло, когда Марк Уильямс-Кук [2] обнаружил в отладочных данных параметр question_fringe_score. По его версии, это оценка того, насколько запрос находится на периферии известного Google пространства знаний — редкий, нетипичный, «длиннохвостый».
Однако в комментариях предположили, что речь может идти не о редкости, а о потенциальной опасности. Во внутренних фрагментах действительно можно встретить следующее.
QualityFringeFringeQueryPriorPerDocData представляет собой специальный модуль, содержащий поле encodedDaftScore, которое анализирует документы на предмет их принадлежности к так называемым «фринж-темам». Эта метрика работает в связке с другими параметрами системы, включая классификаторы для выявления контента, связанного с порнографией, насилием и оскорбительным содержанием. Дополнительно система использует предикторы encodedChardXlqHoaxPrediction и encodedChardXlqYmylPrediction, которые оценивают уровень дезинформации и влияние материала на безопасность пользователя. Таким образом, данный механизм помогает Google определять потенциально рискованный контент и регулировать его видимость в поисковой выдаче.
Иными словами, question_fringe_score может влиять на то, будет ли материал вообще показан пользователю и с какой долей доверия. Это не просто оценка редкости, а маркер «пограничности» и потенциального риска.
Иногда кажется, что Google просто сортирует страницы по ключевым словам. На деле внутри поисковика давно живет механизм, который можно описать как Trust Bias — внутренний коэффициент доверия к источнику. Он накладывается еще до анализа релевантности.
Если у сайта низкий Trust Bias — его контент оценивают осторожнее, ему нужно больше сигналов качества, ссылки с него весят меньше. Если высокий — достаточно легкого намека на релевантность, и материал уже в шорт-листе.
Обычно высокий Trust Bias получают:
государственные домены и крупные медиа;
старые сайты без санкций и спама;
площадки, которые регулярно цитируют другие доверенные источники.
Именно из-за этого экспертным блогам приходится годами накапливать авторитет, а крупные СМИ могут сходу попадать в топ даже с поверхностными текстами. Это — предустановленное доверие, невидимый допуск к выдаче.
В утечке документации Google Search API 2023 года [3] исследователи нашли поля с префиксом chard_, и многие из них оказались связаны с контентом о людях, брендах и компаниях. Похоже, это репутационная сетка, где Google хранит «ауру» сущностей.
Сигналы включают:
тональность и контекст упоминаний;
ссылки с авторитетных площадок;
сопоставление с экспертными источниками;
жалобы и негативные реакции [4].
Если вокруг домена сформировался негативный chard-профиль, его страницы будут терять видимость, даже если идеально оптимизированы. Chard — это память [5] Google о репутации, которую можно изменить только долгой и последовательной работой.
В 2022 году в утечках [6] впервые упомянули метрику topic_authority_score. Она описывает, насколько Google считает автора экспертом в конкретной теме.
На нее влияют:
количество публикаций автора в нише;
их качество и ссылочная масса;
упоминания автора на сторонних ресурсах;
совпадение его профиля с другими экспертами.
Google может даже не знать имя автора напрямую — он склеивает профили по стилю текста и сети связанных сайтов. Это объясняет, почему тексты новичков в блогах почти невидимы, а те же статьи от имени крупного СМИ мгновенно выходят в топ. Подробнее — в официальной документации по E-E-A-T [7].
Чтобы влиять на этот показатель, формализуйте авторство через страницы «Об авторе» и разметку schema.org [8], создавайте кластеры взаимосвязанных материалов по узкой теме, обеспечивайте цитируемость экспертов в авторитетных источниках, а для потенциально спорных тем добавляйте явные сигналы достоверности: ссылки на исследования, экспертные комментарии и открытые данные. Это смещает восприятие [9] вашего контента алгоритмом из категории «сомнительного» в категорию «экспертного», снижая риски фильтрации и повышая шансы на выдачу даже по сложным запросам.
Такой подход эффективнее попыток точечно обойти фильтры, так как напрямую соответствует принципам E-E-A-T (Опыт [10], Экспертность, Авторитет, Доверие), которые Google считает основой качественного контента.
SEO-специалисты часто мыслят страницами, а Google — смыслами. И эти смыслы со временем размываются. Это называют Semantic Drift — постепенное расхождение изначального значения темы с ее текущим восприятием алгоритмами.
Со временем вокруг понятия накапливается шум, и алгоритмы начинают видеть не саму сущность, а ее искаженный след. Отсюда парадоксы [11]: старые статьи теряют видимость, хотя их никто не обошел; случайные тексты внезапно попадают в топ; выдача заполняется «околотемным» контентом.
Бороться с этим явлением можно только путем постоянного актуализации контента: необходимо регулярно подтверждать актуальность и релевантность публикаций, а также своевременно обновлять ключевые материалы, чтобы поисковые алгоритмы всегда четко понимали суть и ценность размещаемого контента.
Это подразумевает:
Регулярный пересмотр и обновление ключевых слов.
Добавление свежей информации.
Корректировку структуры материалов.
Поддержание актуальности данных.
Подтверждение экспертности через новые источники.
Только такой подход позволяет сохранить правильную интерпретацию смысла контента поисковыми системами и удержать высокие позиции в выдаче
Google всегда отрицал, что старые статьи получают штрафы, но в утекших спецификациях есть метрика content_staleness_score. Она не про дату публикации, а про динамику:
как давно документ обновлялся;
как быстро обновляются конкуренты;
как часто пользователи взаимодействуют с материалом;
есть ли в нем сигналы «свежести» (актуальные цифры, даты, ссылки).
Высокий content_staleness_score означает, что текст устарел и перестал отражать реальность. В этом случае алгоритмы будут показывать его всё реже, даже если он формально релевантен. Подробнее — в документации Google про Freshness [12].
Чтобы избежать высоких показателей Content Staleness Score и сохранить видимость контента в поисковой выдаче, необходимо регулярно обновлять материалы с учетом актуальных данных и статистики, отслеживать частоту обновлений конкурентов, анализировать поведение [13] пользователей и внедрять сигналы свежести: актуальные даты, свежие ссылки на источники, обновленную статистику и примеры. Важно создать систему регулярного аудита контента, разработать график обновлений для разных категорий материалов и постоянно следить за изменениями в отрасли, поскольку современные алгоритмы оценивают не дату публикации, а соответствие контента текущей реальности и потребностям [14] аудитории.
Google всё чаще обрабатывает запросы не как набор слов, а как запросы о сущностях — брендах, людях, продуктах. Для каждой сущности существует скрытая метрика web_entity_confidence, которая показывает, насколько поисковик уверен, что она реальна, связана и заслуживает доверия.
Ее формируют:
упоминания на авторитетных сайтах;
совпадение атрибутов в разных источниках (адрес, логотип, описание);
наличие структурированных данных (Organization, Person);
связи с другими известными сущностями.
Если web_entity_confidence низкий, Google будет сдерживать видимость материалов о бренде. Если высокий — бренд автоматически получает фору в любом тематическом кластере и в E-E-A-T.
Чем больше копаешься в этих сигналах, тем скорее понимаешь: Google уже давно не ищет просто «страницы по ключам». Он строит модель мира — и впускает в неё только тех, кому доверяет.
Каждая публикация сегодня оценивается не только по тексту. Алгоритмы смотрят, кто её написал, где она размещена, какую репутацию несет домен, насколько свежи данные и не находится ли тема на грани допустимого.
Это означает, что SEO в классическом смысле — подбор слов, линкбилдинг, тайтлы — уже не работает в отрыве от доверия. Без репутации, экспертности и системной работы над сущностью сайта ваши тексты остаются для Google просто шумом.
Поэтому, если вы хотите, чтобы ваш контент был виден не только ботам, но и людям, нужно мыслить не страницами, а доверительной системой.
Закрепляйте бренд как сущность, накапливайте авторитет, обновляйте ключевые материалы, расставляйте структурированные данные — и тогда алгоритмы начнут воспринимать вас не как «еще один сайт», а как часть своей картины мира.
Если вам интересно следить за тем, как меняется SEO прямо сейчас, приглашаю в мой телеграм-канал — SEOverload [15]. Также задавайте вопросы и делитесь мнением в комментариях.
Автор: AndreyTrig
Источник [19]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20117
URLs in this post:
[1] AGIMA: https://agima.ru/?utm_source=habr&utm_medium=article&utm_campaign=popov
[2] Марк Уильямс-Кук: https://www.linkedin.com/posts/markseo_seo-activity-7371508054485344257-8HRh/
[3] утечке документации Google Search API 2023 года: https://journal.topvisor.com/ru/practice/google-algorithm-reveal/
[4] реакции: http://www.braintools.ru/article/1549
[5] память: http://www.braintools.ru/article/4140
[6] утечках: https://www.seozoom.com/topic-authority-a-ranking-system-for-news/
[7] в официальной документации по E-E-A-T: https://developers.google.com/search/docs/fundamentals/creating-helpful-content?hl=ru
[8] schema.org: http://schema.org
[9] восприятие: http://www.braintools.ru/article/7534
[10] Опыт: http://www.braintools.ru/article/6952
[11] парадоксы: http://www.braintools.ru/article/8221
[12] в документации Google про Freshness: https://support.google.com/analytics/answer/11198161?hl=en
[13] поведение: http://www.braintools.ru/article/9372
[14] потребностям: http://www.braintools.ru/article/9534
[15] SEOverload: https://t.me/SEOverload
[16] Внедрение структурированных данных для ИИ-ассистентов: FAQPage, HowTo, таблицы сравнений: https://habr.com/ru/companies/agima/articles/943948/
[17] Как работают поисковики: 4 точки зрения (ни одной правильной): https://habr.com/ru/companies/agima/articles/899698/
[18] Google и Яндекс внедрили ИИ в поисковики — и это сильно меняет подход к SEO. Разработали план действий: https://habr.com/ru/companies/agima/articles/935044/
[19] Источник: https://habr.com/ru/companies/agima/articles/952054/?utm_campaign=952054&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.