- BrainTools - https://www.braintools.ru -

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek

Как далеко вперёд собирается рынок?
Цифры и впечатляют, и оставляют за собой кучу вопросов одновременно:

  • Глобальный рынок [1] генеративного ИИ растёт кратно: оценки доходят до $1,3–1,5 трлн к 2032–2035 году

  • Только рынок LLM прогнозируется на уровне $149+ млрд к 2035 году

  • В России [2] — рынок ИИ уже измеряется сотнями миллиардов рублей и растёт двузначными темпами ежегодно

  • И главное — каждый третий пользователь уже использует ИИ для принятия решений (покупки, выбор подрядчиков, анализ)

  • 58% потребителей уже заменяют традиционные поисковики генеративным ИИ при поиске рекомендаций товаров и услуг, а 71% хотят видеть такие инструменты встроенными в покупательский опыт [3].

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 1
Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 2

«Новый канал» пока не признается (а надо бы), но на это нужно время. Но признать, что отношение к информации и ее подача изменилось — уже точно пора всем.

Раньше пользователь:
→ открывал поиск
→ сравнивал ссылки
→ принимал решение вымученное самостоятельно 

Сейчас:
→ задаёт вопрос
→ получает готовый ответ
→ действует

И вот: привычная логика [4] уже не такая привычная. SEO разрастается до GEO: SEO + PR + репутационный маркетинг. 


Ладно, это было долгое лирическое вступление. Тому, как это работает, почему классическое seo будет жить какими знаниями надо обладать, чтобы не поддаться фанатизму и хаосу я уже писал. А вот, почему конкретные нейросети ChatGPT, Алиса, Gemini и другие выбирают одни источники и игнорируют другие. Поговорим о факторах присутствия в ответах конкретных ИИ-систем:

  • что влияет на попадание в ответы Яндекс.Алисы;

  • что важно для ChatGPT;

  • чем отличается логика Perplexity, Claude, Gemini и GigaChat;

  • и почему классическое SEO здесь помогает только частично, а дальше начинаются уже другие механики: retrieval, доверие к источнику, структура контента, цитируемость, локальные экосистемы и семантическая извлекаемость.

Общеобразовательный дисклеймер

Делаю его к каждому материалу по GEO, потому что восприятие [5] инструмента сейчас крайне туманное — с одной стороны очарование ИИ, с другой вся его подноготная (как использовать? Насколько широко использовать? и так далее).

Смотрите, главная ошибка — попытка сравнивать GEO с другими источниками трафика

Интернет пришлось отучать от вечного противодействия SEO и контекста. И то — по сей день маркетологи разводят эти понятия. А вокруг новых инструментов еще больше загадок и вопросов, веры и надежды в конце концов)

GEO проще воспринимать как слой интерпретации поверх уже существующего информационного поля.

LLM не ранжируют страницы в привычном смысле. Они работают с распределением вероятностей: какие факты, формулировки и сущности чаще всего встречаются вместе, в каком контексте и с какой тональностью. Фактически, ответ — это не выбор “лучшего результата”, а сборка наиболее вероятной версии реальности на основе доступных сигналов.

Отсюда и начинаются все недопонимания. В генеративной выдаче модель не смотрит на страницу как на единицу, она видит фрагменты, повторяющиеся паттерны и связи между источниками. Если эти паттерны не сходятся — вы и в ответ не попадете.

Консенсус, коллеги. Не в смысле одинаковых текстов, а в смысле совпадающих смыслов. Когда несколько независимых источников описывают вас схожим образом, это превращается в устойчивый сигнал. Когда описания расходятся — модель начинает сглаживать формулировки или уходит в неопределённость. Когда негатив системно повторяется — он почти неизбежно попадает в ответ, даже если у вас идеальный сайт.

При этом сама выдача по своей природе нестабильна. Один и тот же вопрос не имеет фиксированного ответа — модель каждый раз пересобирает его заново (стохастичность). Вместо идеи о “позиции” появляется вероятность присутствия: насколько часто вы оказываетесь внутри ответа при разных формулировках, сценариях и контекстах. И это гораздо более сложная метрика, потому что она зависит не только от вас, но и от структуры всего информационного поля вокруг темы. Более того: ваше семантическое ядро, по-хорошему, разрастается тысяч и десятков тысяч запросов.

Кстати, о семантике: дополнительное усложнение даёт поведение [6] пользователя. Всё больше запросов превращается в описание задачи: с условиями, ограничениями, уточнениями. В том числе, из-за ИИ-ответов. Внутри одного диалога возникает несколько подтем, и модель фактически проводит серию микропоисков, объединяя их в один ответ. В этой логике конкуренция идёт не за ключевую фразу, а за покрытие сценария — насколько ваш контент способен закрыть разные аспекты одного и того же вопроса.

При всей новизне интерфейса и процесса, фундамент остаётся прежним. Большинство систем опираются на документы, полученные через поиск. Это может быть Google, Bing, Яндекс или их внутренние индексы, но принцип один: сначала находится пул источников, затем из них собирается ответ. Поэтому просадки в классическом SEO часто синхронно отражаются в генеративной выдаче. Это не всегда линейная зависимость, но корреляция наблюдается регулярно.

И, пожалуй, самая спорная и неоднозначная часть — измеримость. У нас нет доступа к реальным пользовательским сценариям, нет полной статистики показов и нет нормального трекинга переходов. Даже там, где появляются отчёты (например, по взаимодействию с AI-поиском), речь идёт уже о переработанных запросах, а не о том, что вводит пользователь. В итоге приходится работать с косвенными метриками: доля упоминаний, частота появления бренда в ответах, тональность, сравнительное присутствие относительно конкурентов. По сути, мы измеряем не результат, а вероятность его возникновения. В защиту скажу: полгода назад и этого не было — все ответы замерялись вручную. Да и utm с нейронок начали уже выкатывать (наконец-то). Так что те, кто любит быть в авангарде поймёт) в том числе, оценит весь шарм ситуации и примет меры.

GEO — это задача управления присутствием в информационном поле: насколько согласованно вы описаны, насколько часто повторяетесь в разных источниках, насколько легко ваши формулировки извлекаются и встраиваются в ответ. Об этом дальше и чуть подробнее.

В заблокированной от интернета России, бизнесу правда стоит присмотреться к инструменту GEO. По сути, вы делаете то, что пришлось бы делать для бизнеса в любом случае, только более согласованно (seo+pr+репутационный маркетинг). Это 3 столпа, остальное сейчас либо дорого, либо недоступно. Think about it) А мы переходим к основному материалу. 


Как вообще формируется ответ нейросети

В большинстве сценариев нейросеть ответ собирает. Причём собирает не из одного источника, а из комбинации нескольких слоёв данных.

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 3

В основе — три механизма, которые вместе формируют ответ:

1. Retrieval (поиск → генерация)
Это основной сценарий сегодня. Система сначала находит документы, затем собирает из них ответ.

  • Яндекс.Алиса опирается на поисковый индекс Яндекса

  • ChatGPT и Perplexity используют собственные retrieval-слои и веб-доступ

  • Google прямо описывает процесс как серию поисков по под-интентам (query fan-out)

2. Прямой доступ (user-fetch)
В ряде сценариев модель может получить страницу напрямую — как будто это сделал пользователь.

  • используются отдельные user-агенты (например, ChatGPT-User)

  • ограничения robots.txt могут не срабатывать так же, как для поисковых ботов

Это менее очевидно, но расширяет зону доступности контента.

3. Данные обучения [7] (model memory)
Это слой, который формирует базовые знания модели.

  • данные собираются через специализированные боты (GPTBot, ClaudeBot и др.)

  • влияние — долгосрочное, а не оперативное

Управлять этим слоем напрямую почти невозможно, но он влияет на «узнаваемость» тем и источников.

Если собрать это в одну цепочку, получается следующая логика:

контент → доступность → видимость → отбор источников → генерация

И на каждом этапе можно выпасть.

Из-за чего именно можно выпасть даже из выбора?

Доступность: если страница закрыта от обхода или не индексируется, она просто не участвует в процессе. Нюанс: при блокировке через robots.txt модель может даже не увидеть мета-теги страницы.

Видимость: дальше важно не просто существование страницы, а её присутствие в конкретных системах:

  • поисковый индекс

  • внутренние базы знаний ИИ

  • доступ через пользовательский запрос

Это уже выходит за рамки классического SEO.

Источники: на этапе запроса модель формирует пул документов. Это не один результат, а десятки страниц, найденных через разные формулировки и под-интенты.

Именно здесь появляется эффект, который Google называет query fan-out — один вопрос разбивается на несколько уточняющих (определение, примеры, сравнение, частные случаи), чтобы собрать ответ максимально полный и не из одного источника (к слову: лучше из одного, вашего). Просто надо закрыть интернеты контентом. Просто) 

Сам выбор: из всего пула выбирается ограниченное количество фрагментов, которые реально будут использованы в ответе.
И здесь принципиальное отличие от SEO:

  • выбирается не страница

  • выбирается фрагмент текста

Причём этот выбор определяется тремя вещами:

  • насколько фрагмент релевантен вопросу

  • насколько ему можно доверять

  • насколько его легко извлечь и вставить в ответ

Генерация ответа: модель собирает итоговый ответ, комбинируя выбранные фрагменты. Нюанс: ссылки, которые пользователь видит (если они вообще есть), не всегда полностью совпадают с реальными источниками, использованными при генерации. Это отдельно отмечается, например, в экосистеме Google.

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 4

Без SEO далеко не уедешь, но и на одном нём не протянешь: для попадания в ответ ИИ играют роль уже свои другие факторы — структура, извлекаемость, доверие и семантическое совпадение.


Как формируются ответы и что на них влияет: версия разные нейросети

Если упростить, то и Google, и Яндекс сегодня работают по одной общей модели:
поиск остаётся основой, а нейросеть собирает ответ поверх него.

Но на практике между ними есть критические различия.

Google (Gemini / AI Overviews)

У Google главный фильтр входа не изменился: страница должна быть в индексе и пригодна для сниппета. НО…

Дальше, за SEO, начинается  отбор фрагментов под несколько подзадач одного запроса. В документации это описано через query fan-out: система дробит вопрос на связанные подзапросы и подтягивает источники не под один ключ, а под целый кластер микроинтентов.

То есть, сайту нужны страницы, которые закрывают вопрос со всех сторон: дают определение, короткий ответ, доказательство, пример, сравнение, ограничения. 

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 5

Второй важный момент — контроль сниппета и доступности. Если страница закрыта в robots.txt, то мета-директивы вроде noindex, max-snippet, data-nosnippet или X-Robots-Tag вообще не будут прочитаны. Не ломайте собственноручно себе контроль через disallow.

Третий момент — сущность и согласованность фактов. Для Gemini, например, это даже важнее, чем для AI Overviews. Google AI в поиске требует индексируемость, чтобы взять фрагмент (как для сниппета), а Gemini дополнительно использует Google-Extended — они используются для обучения и накопления знаний. Поэтому важна не только сама страница, а то, насколько информация о вас в целом согласована и присутствует в разных источниках. 

Яндекс (Алиса + Поиск)

В Яндексе логика +- похожа, но внутри сильно завязана на экосистему. 

Первое, что важно понимать: Алиса не обязана показываться автоматически по любому запросу. В официальных материалах Яндекса отмечено, что ИИ-ответ появляется там, где он признан наиболее полезным, а в остальных случаях может вызываться только по кнопке. Т.е. часть запросов можно оптимизировать просто идеально и всё равно не получить автопоказа. В каких случаях ответ не вылезает мы, естественно, не знаем) Яндекс молчит. 

Второй реальный фактор — структура страницы под вопросный интент. После ряда экспериментов с нашими кейсами, мы поняли, что переработки под самодостаточные ответы — списки, подзаголовки, термины, блоки «что это / как выбрать / чем отличается», тут работают.

Третий слой — локальная и коммерческая представленность. Для коммерческих и локальных запросов система тянет данные не только из сайта, а из Яндекс Бизнеса, органики, отзывов, новостей, упоминаний и структурированных данных на сайте. Это не официальная формула ранжирования, но как рабочая модель для бизнеса она выглядит гораздо полезнее. Это может влиять даже лучше, чем оптимизированная статья.

Четвёртый фактор — репутация и сущностная консистентность бренда. Реально экспертный материал, упоминания на авторитетных площадках, отзывы, динамика и тональность репутации, единое написание бренда и совпадение ключевых фактов — для Алисы особенно важно. Если по бренду есть противоречия, модель получает не один объект, а несколько слабых версий одного и того же бизнеса.

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 6

Важно: участие страницы в AI-ответах Яндекса можно технически отключать через YandexAdditional / YandexAdditionalBot, а обновление этого статуса происходит не мгновенно, а с лагом примерно 2–14 дней. Имейте это ввиду. 

ChatGPT

Поскольку это LLMка, факторы тут другие. 

Во-первых, OAI-SearchBot (поиск источников). Если сайт хочет попадать в search-ответы ChatGPT, его нельзя блокировать для OAI-SearchBot. Это прямое техническое условие. При этом GPTBot — нужен для потенциального обучения модели (не влияет на попадание, но лучше не закрывать, чтобы модель обучалась на вас), а ChatGPT-User — отдельный пользовательский доступ, для которого robots.txt может не сработать так, как ожидает владелец сайта. То есть у ChatGPT важна не одна «политика для бота», а разделение: что разрешать для поиска и что защищать уже через auth/WAF, а не через robots.

Во-вторых, noindex и ARIA. Если владелец не хочет, чтобы ChatGPT показывал даже ссылку и title, OpenAI рекомендует noindex. Плюс для агентного режима Atlas отдельно упомянуты ARIA-атрибуты как сигнал, помогающий модели понимать интерактивные элементы страницы. Это уже вполне себе конкретная настройка для цитируемости и для агентного взаимодействия.

В-третьих, измеримость канала. OpenAI добавляет utm_source=chatgpt.com [8], и это превращает всю тему в нормальный измеряемый канал. УРРА!

В-четвёртых, форма контента для извлечения. ChatGPT особенно важны answer pages: короткий TL;DR, блоки фактов, определения, таблицы, FAQ, логическая нарезка текста. Это связано не только с веб-поиском, но и с тем, как OpenAI работает с файлами и knowledge внутри GPTs: ваш контенто должен нормально читаться отдельными кусками. Т.е. не просто повторить главную мысль несколько раз, а сделать так, чтобы каждый блок был самодостаточным и легко находился отдельно от всей статьи.

Как попасть в ответы нейросетей: ChatGPT, Google AI, Яндекс.Алиса, Perplexity, Claude, Gemini, DeepSeek - 7

Perplexity, Claude, Gemini, GigaChat и DeepSeek: различия в логике отбора источников и формирования ответов

Perplexity

Perplexity — это, по сути, максимально честная реализация модели «поиск + генерация» (live-поиск проходит достаточно жесткий фильтр на пригодность фрагментов). 

Ключевые сигналы из данных:

  • приоритет страниц, где есть прямой ответ в первых блоках (top-heavy content)

  • высокая чувствительность к времени публикации / обновления

  • учитывается наличие явных ссылочных связей (outbound + inbound)

  • активно используются UGC-источники (Reddit, форумы), если они дают конкретику

  • важна snippet-структура: абзац, который можно взять без переписывания

Отсекается:

  • длинный ввод без ответа

  • размазанные тексты без явного тезиса

  • страницы без намека на фрагментарность 

Claude (Anthropic)

Claude заметно отличается по поведению [9], а именно по фильтрации: 

  • применяется multi-step filtering (сначала отбор источников, потом проверка на согласованность)

  • учитывается source consistency — совпадают ли факты между источниками

  • понижается вес источников с:

    • противоречиями

    • отсутствием автора / экспертизы

    • неконтролируемым UGC

  • усиливается вес:

    • research-контента

    • материалов с структурированной аргументацией

    • источников с устойчивой репутацией

Критично:
если факт встречается в разных формулировках → Claude стремится к усреднению
если есть конфликт [10] → может уйти в осторожную формулировку, но скорее исключит источник

Gemini (Google)

Gemini не AI Overviews, но повадки характерные всё равно имеются.

Он одновременно использует:

  • поисковый индекс

  • Knowledge Graph

  • собственные модели понимания контекста

Главная особенность: Gemini чаще на собранные знания, поэтому может не использовать страницу вообще.

Это проявляется в том, что:

  • ответы могут строиться без явных ссылок

  • активно используются сущности, атрибуты и связи между объектами

  • учитывается консистентность описания сущности в разных источниках

  • снижается роль отдельных страниц без контекста

GigaChat (Сбер)

Сильно завязан на локальный рынок.

Он ориентируется на:

  • русскоязычные источники (ru-домен)

  • данные внутри экосистемы Сбера

  • контент, релевантный локальному контексту

  • структурированные коммерческие данные

По поведению для ГигаЧата:

  • важна региональность

  • учитываются сервисные данные и карточки организаций

  • наблюдается сильное влияние отчественных источников — то есть по полноте ваше исследование будет ограничено ru рынком

  • нужно постоянно следить за поведенческими факторами внутри экосистемы (как для Яндекса)

При этом: меньший пул источников по сравнению с западными системами. 

DeepSeek

Модель сильнее ориентирована на технический контент и open-source среду.

На практике это проявляется так:

  • чаще используются GitHub, документация, технические статьи

  • выше вероятность вытаскивания кода и конкретных решений

  • меньше зависимости от классических SEO-факторов

В отличие от ChatGPT или Claude, здесь заметен перекос в сторону:

  • инженерных знаний

  • практических инструкций

  • конкретных реализаций

Ещё DeepSeek сейчас менее «коммерциализирован» с точки зрения [11] источников:

  • меньше влияния брендов

  • меньше экосистемных перекосов

  • больше фокуса на содержании 

КРАТКАЯ СВОДКА

Система

Как устроена логика

Что критично для попадания

Какие типы сайтов/контента заходят лучше всего

ChatGPT

Генерация + поиск источников + доступ к вебу

Доступ для OAI-SearchBot, повторяемость информации в разных источниках, самодостаточные смысловые блоки, простота извлечения, ясность формулировок

Гайды, FAQ, обучающие материалы, статьи с TL;DR, таблицами и чёткими ответами, контент с разбивкой на логические блоки

Google (Gemini / AI Overviews)

Поиск + разбиение запроса на подтемы + работа с сущностями

Индексация + возможность извлечения фрагмента, покрытие нескольких интентов, структурированный контент, согласованность сущности (данные о бренде в разных источниках), подтверждение информации из нескольких источников

Структурированные статьи, определения, экспертные материалы с доказательной базой, страницы с schema и чёткой логикой ответа

Яндекс (Алиса)

Поиск + экосистема + поведенческие сигналы

Присутствие в сервисах Яндекса (Карты, Бизнес), региональность, поведенка, согласованность данных о компании, формат страницы под «ответ», доверие внутри экосистемы

Карточки организаций, агрегаторы, локальные сервисы, сайты с геопривязкой, страницы с чёткими ответами и списками

Perplexity

Поиск в реальном времени + сбор ответа с источниками

Актуальность, наличие прямых ответов, хорошая структура, доступность контента, цитируемость

Статьи, Reddit, форумы, свежие материалы, контент с короткими и точными ответами

Claude

Генерация с сильной фильтрацией и упором на надёжность

Достоверность, согласованность информации, экспертность, отсутствие противоречий

Исследования, медиа, экспертные статьи, официальные источники

Gemini (вне поиска)

Работа через знания и связи между сущностями

Наличие оформленной сущности, единая информация о бренде, присутствие в разных источниках, консистентность данных

Бренды, продукты, компании с устойчивым цифровым следом и связями между источниками

GigaChat

Локальная модель + экосистема + русскоязычные данные

Русскоязычный контент, локальная релевантность, присутствие в сервисах, доверие источнику

Российские сайты, локальные сервисы, бизнесы с региональной привязкой

DeepSeek

Генерация с уклоном в технические и open-source данные

Точность, прикладность, наличие кода/решений, техническая глубина

GitHub, документация, тех. статьи, инженерный контент


Короче…подытожим

Мы оптимизируемся уже не только под поиск. Мы оптимизируемся под ответ.

Только помните: без Geo будет хуже, без Seo ну очень худо. Да и одного Seo уже недостаточно. 

Не знаю как сказать — keep calm и сохраняйте баланс меж новых, еще не повсеместных инструментов и классических, проверенных временем, наших передовиков). Делайте качественное сео, пригодный контент (для всех), стройте единую цифровую сущность (бренд-услуга/продукт), будьте доказательными и экспертными и не игнорируйте региональность и карты. Будет вам geo/seo счастье) 

Если остались вопросы — пишите в личку [12]

Автор: SEO_Performance

Источник [13]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/28614

URLs in this post:

[1] Глобальный рынок: https://www.fortunebusinessinsights.com/

[2] В России: https://www.cnews.ru/news/top/2025-12-09_v_2025_godu_rossijskij_rynok

[3] опыт: http://www.braintools.ru/article/6952

[4] логика: http://www.braintools.ru/article/7640

[5] восприятие: http://www.braintools.ru/article/7534

[6] поведение: http://www.braintools.ru/article/9372

[7] обучения: http://www.braintools.ru/article/5125

[8] chatgpt.com: http://chatgpt.com

[9] поведению: http://www.braintools.ru/article/5593

[10] конфликт: http://www.braintools.ru/article/7708

[11] зрения: http://www.braintools.ru/article/6238

[12] в личку: https://t.me/m/u_D-n0QwZDhi

[13] Источник: https://habr.com/ru/articles/1021980/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1021980

www.BrainTools.ru

Rambler's Top100