- BrainTools - https://www.braintools.ru -

Почему SEO не умрёт. И что такое настоящий GEO

Маркетологи паникуют. SEO перестало работать – по ссылкам не переходят, продвижение в интернете теряет смысл, LLM завладело вниманием [1] пользователей. Тут же появились эксперты с рекомендациями, что нужно изменить бизнесу, чтобы ИИ его заметило. И, естественно, на рынке появились услуги GEO (Generative Engine Optimization).

В этой статье я разбираю, почему от SEO никуда не деться, и почему большинство статей о GEO в корне неверны.

Что предлагают для GEO

Давайте оценим, что советуют для того, чтобы ваш сайт, ваш бренд цитировался в ответах LLM:

  • структурированные данные (Schema.org [2]), 

  • чёткие ответы на вопросы в контенте, 

  • авторитетность домена,

  • упоминания бренда на внешних площадках

  • правильные заголовки, читаемость текста.

Эти предложения взяты из недавней статьи [3] о GEO на Хабре. Уверенно скажу вам, что в сотнях других статей вы найдете то же самое в разных вариациях. Давайте взглянем на эти советы поподробнее. Ничего не узнаете? Это всё тот же классический SEO! Всё это работало  и будет работать в классической парадигме Search Engine Optimization. Что же тут нового? Ничего. Потому что, маркетологи учились и учатся на классических учебниках по маркетингу, а не изучали как работает нейросеть. 

Более того, большинство этих статей сформулировано на вопросе, заданном ИИ: Что нужно для хорошего GEO? И ответ LLM был точно таким же, потому что нейросеть учится ровно на том же, что и маркетологи, и отвечать будет именно так, как ответил бы маркетолог. 

Нейросеть не знает, как повысить привлекательность текста для LLM. Её ответы это только то, чему её научили на учебниках по SEO. А в учебниках то же, что знает каждый сеошник — структурированные данные, заголовки и авторитетность. Поэтому ответ модели про GEO — это ответ про SEO. Советы, упакованные в “авторитетно красивый” текст на самом деле полезны настолько же, насколько и всё, что вы делали раньше.

Почему SEO не умрёт

SEO остаётся и останется важным, потому что есть два способа попасть в выдачу LLM:

  1. Попасть в топ поискового запроса нейросети (Поиск/RAG)

  2. Попасть в обученные веса нейросети

Первый способ это целиком и полностью работа SEO, и для него будут важны практически все классические приёмы. Если человек хочет купить мангал, то и ваш сайт должен быть максимально релевантен именно этому запросу. Несколько статей обзоров, честный прайс, характеристики, гарантии. И тогда ИИ, встроенный в поисковую строку, возможно выдаст вас в качестве первого источника. А учитывая возможность  покупки этой строчки, для SEO вообще ничего не поменяется. 

И здесь не могу не добавить, как LLM будет делать из топа выдачи итоговый ответ. LLM обратится к своим базовым весам, и если в весах бренд зафиксирован как жесткая граница или категория, модель использует именно онтологию этого бренда для структурирования ответа, даже если опирается на чужие SEO-тексты. Как на это повлиять рассмотрим ниже.

Второй способ гораздо сложнее, бренды, авторы, марки – не являются инвариантами, и будут отброшены в процессе обучения [4], либо получат столь малый вес, что вероятность появления в вопросе, прямо не касающемся бренда, будет категорически мала. Чем меньше бизнес, тем меньше смысла тратить на это деньги. 

Если речь идёт о корпорациях, то да. Там позиционирование своего бренда в ИИ-выдаче имеет смысл, но классическими приёмами SEO этого добиться сложно.

Что такое GEO

В нейросети нет позитивных определений, когда LLM встречает в датасете незнакомое слово, она не ищет его определение, она ищет границы. Чем это слово не является? На что похоже, но не совпадает? Где заканчивается одно понятие и начинается другое? Это происходит в пространстве из сотен измерений одновременно.

Каждое понятие в этом пространстве существует не как точка с координатами, а как область, очерченная тем, чем она не является. «Яблоко» — это не список положительных признаков (круглость, краснота), это зона, которая не груша, не помидор, не мяч. Чем чётче границы — тем устойчивее понятие, тем надёжнее модель его воспроизводит в разных контекстах. 

Если вы попробуете найти вектор яблока в весах нейросети, вы этого сделать не сможете. Потому что, то что мы называем яблоком, для нейросети совокупность границ, отсекающих всё, что яблоком не является. По сути нейросеть это апофатический ИИ, модель не учится тому, что такое объект, а учится тому, чем он не является.

Когда в этом пространстве появляется концепция с чёткими границами и объяснительной силой — она не просто запоминается как факт. Она становится точкой притяжения для смежных запросов. Модель начинает использовать её как инструмент объяснения, потому что путь через эту концепцию оказывается короче и точнее любого альтернативного маршрута в данной области пространства.

Это и есть аттрактор. Факт, который помнят, превращается в структуру через которую текут градиенты.

Настоящий GEO это способ формирования бренда таким образом, чтобы он стал опорной структурой для мышления [5] модели, категорией, границей, которая позволяет сформировать ответ пользователю наименее энергетически затратным способом. 

По сути, GEO это частный случай универсального принципа: любая система — нейросеть, рынок, цивилизация — стремится к минимуму затрат при максимуме результата. Тот кто создаёт эффективную структуру — экономит энергию всей системы. Этот способ думать о ресурсах ближе к Жаку Фреско, чем к маркетингу.

В традиционном SEO нечто похожее формулируется как миссия компании, история, нарратив. Но для LLM в таком исполнении это просто слова. Например, SEO-текст про миссию бренда выглядит так: «Мы создаём качественные продукты для активных людей которые ценят свободу». Это набор позитивных утверждений. Для человека они создают образ. Для LLM — это слова с высокой частотой употребления и низкой различительной силой. «Качественный», «активный», «свобода» встречаются в датасете миллионы раз в самых разных контекстах. Они не формируют чёткую границу, а растворяются в шуме.

Чтобы миссия ощущалась нейросетью, нужна жесткость: «Мы делаем софт только для малого бизнеса, мы осознанно отказались от сложных Enterprise-функций, чтобы продукт работал без внедрения». Здесь есть жесткое НЕТ, которое нейросеть превратит в векторную границу.

Аттрактором становится не то, что часто встречается, а то, что точно разграничивает. Бренд который описан через то, чем он не является, какую задачу закрывает и какую принципиально не берётся решать — формирует границу. Граница возникает как структура. Просто слова — нет.

Сейчас нейросеть в процессе обучения формирует такую структуру самостоятельно: Google – поиск, Zoom – видеозвонок… Но эти паттерны в нейросети возникли за счёт реального доминирования на рынке и, соответственно, массированного повторения [6], задача GEO сформировать такой текст, который, попав в датасет, сформирует сильную позицию бренда как структуры для потенциального  ответа модели, не тратя миллиарды долларов.

С чего начать GEO

Если вы малый бизнес, ваша цель не попасть в веса нейросети, а в топ выдачи по конкретному запросу. Вам надо стать единственным внятным ответом в своей микронише. И тут работает SEO. Для вас GEO имеет смысл не как продвижение в существующей категории, а как создание новой. Дешевле стать единственным ответом в незанятой нише, чем бороться за место среди тысячи похожих текстов. GEO для тех, кто создает категории, а не товары в них (хорошо если вы единственный эксперт по акустике деревянных судов, разрабатываете ПО для редкой профессии и т.д.).

На что же надо обратить внимание. В процессе обучения нейросетей используются несколько методов, паттерны которых уверенно распознает нейросеть. Какие варианты можно использовать в GEO, вот четыре алгоритма обучения, которые можно  перевести на язык контента:

Концепт

Применение в обучении (ML)

Применение в тексте (копирайтинг/брендинг)

Hard Negatives.

Контрастное позиционирование.

Пара «правильный ответ / правдоподобно неправильный» даёт максимальный градиентный сигнал.

Вместо абстрактного «бренд X качественный» используется конструкция: «бренд X решает проблему Y — в отличие от стандартного подхода Z, который даёт только частичный результат». Граница между X и Z несёт больше информации, чем описание X само по себе.

Contrastive Learning.

Категориальное определение через отличие.

Модель учится тому, что объекты одного класса близки, а разных — далеки друг от друга.

Бренд определяется не перечнем свойств, а классом задач, которые он закрывает, и классом задач, которые принципиально «не его». Формула «Для задачи A — X, для задачи B — не X» формирует чёткую границу в латентном пространстве восприятия [7].

Curriculum Learning.

Нарастающая сложность сравнений.

Обучение строится от простых примеров к сложным.

Текст ведет читателя от очевидных сравнений к нетривиальным. Читатель (как и модель) проходит путь от «X лучше очевидно плохого» до «X лучше сопоставимо хорошего», благодаря чему граница позиционирования становится точнее.

Triplet Loss.

Трёхстороннее сравнение.

Модель обучается на тройках (anchor, positive, negative), чтобы anchor был ближе к positive, чем к negative.

Используется структура: «задача Y — бренд X (правильно) — бренд Z (похоже, но не то)». Три элемента фиксируют позицию бренда точнее, чем два.

Использование этих паттернов позволит вашему бренду стать более заметным в процессе обучения нейросетей.

Как сделать бренд якорем для нейросети

Тем не менее задача проговаривания нейросетью именно названия бренда остаётся сложной. 

Давайте отключим доступ к интернет поиску у Gemini 3.1 Pro на Google AiStudio и попросим назвать лучший автомобиль за последние 10 лет: 

Ответ Gemini:

Скрытый текст

Назвать один абсолютно «лучший» автомобиль невозможно, так как критерии идеала у каждого свои: для одного это надежность, для другого — скорость, для третьего — технологии.

Однако, если оценивать автомобили по их влиянию на индустрию, продажам, инженерным достижениям и отзывам экспертов, то за последние 10 лет (2014–2024) сформировалась пятерка безоговорочных лидеров в своих категориях.

1. Главный прорыв десятилетия: Tesla Model 3 (с 2017 года)

Если нужно выбрать один автомобиль, который изменил всё, то это Model 3.

  • Почему он лучший: Он сделал электромобили по-настоящему массовыми, желанными и доступными. До Model 3 электрокары были либо скучными и с маленьким запасом хода, либо безумно дорогими. Model 3 заставила весь мировой автопром (от Volkswagen до Mercedes) в панике перестраивать свои стратегии и переходить на электричество. Это iPhone в мире автомобилей.

2. Эталонный спорткар: Porsche 911 (поколение 992, с 2018 года)

  • Почему он лучший: Это вершина эволюции спортивных автомобилей. Инженерам Porsche удалось создать машину, которая уничтожает конкурентов на гоночном треке в выходные, но при этом достаточно комфортна, чтобы ездить на ней за продуктами каждый день. Поколение 992 довело этот баланс до абсолютного идеала.

3. Народный любимец и самый практичный: Toyota RAV4 (5-е поколение, с 2018 года)

  • Почему он лучший: Это самый продаваемый автомобиль в мире последних лет. Toyota угадала абсолютно всё: агрессивный, но универсальный дизайн, неубиваемая надежность, отличная вместительность и, главное, потрясающие гибридные установки, которые экономят топливо без потери динамики. Это идеальный транспорт для жизни.

4. Технологический флагман: Mercedes-Benz S-Class (W222 и W223)

  • Почему он лучший: Традиционно считается, что технологии, которые сегодня появляются в S-Классе, через 10 лет будут в каждой бюджетной машине. За последнее десятилетие S-Класс закрепил за собой статус короля комфорта, представив передовые системы полуавтономного вождения, умную пневмоподвеску, сканирующую дорогу, и непревзойденный уровень шумоизоляции.

5. Автомобиль для настоящих энтузиастов: Toyota GR Yaris (с 2020 года)

  • Почему он лучший: В эпоху, когда машины становятся тяжелыми компьютерами на колесах, Toyota выпустила настоящего “хулигана”. Это легкий, полноприводный хэтчбек на механике, созданный по правилам раллийных гонок (омологационный спецвыпуск). Автожурналисты по всему миру признали его самым веселым и эмоциональным автомобилем десятилетия.

Итог:
Если вас интересует массовость, надежность и польза, лучший автомобиль последних 10 лет — Toyota RAV4.
Если вас интересует историческая значимость и технологии, лучший — Tesla Model 3. Именно он останется в учебниках истории как символ этой автомобильной эпохи.

А теперь внимательно изучим критерии выбора моделью лучшего автомобиля. Сразу обращу внимание, что нейросеть, несмотря на промпт, вместо одного предложила пять вариантов. Это врожденное свойство нейросетей, и надеяться на то, что ваш бренд будет в ответе LLM единственным не стоит. Но что интересно, для того, чтобы сделать выбор, нейросеть определила самые важные качества/категории и в каждом варианте выбрала победителя. Прогресс — Тесла, спорт — Порше, надежность — Тойота Rav-4, комфорт — Мерседес, эмоции [8] — Тойота Yaris. 

Очевидно, что это результат попадания в веса разного рода рейтингов и опросов, но критически важно то, что при выборе лучших LLM автоматически провела границы и определила категории, в рамках которых автомобиль был назван лучшим. Что такое Тесла, это автомобиль который своим появлением реализовал концепцию доступного (относительно) электромобиля, и надолго стал бенчмарком для всех последующих конкурентов. То есть, Тесла по сути создала для нейросети новую оценочную рамку, возможность метавыводов, новую онтологию автомобильной промышленности.

А теперь самое важное, LLM семантически не различает независимый рейтинг журнала и статью на сайте конкретного автопроизводителя, всё это оседает в весах как информация. Более того, рейтингов очень много, результаты разные, и всё это размывает доверие. Для нейросети в обучении работает не авторитетность источника, а частотность попадания в датасеты. Именно поэтому ml-инженеры дополнительно добавляют коэффициенты доверия (например, у Википедии существенно выше, чем у Reddit).

То есть, нейросеть при обучении реагирует не на значимость источника,  а на его частоту и на то как отреагирует лосс. Если повышение частоты будет стоить дорого, а повлиять на ml-инженеров рискованно, то сформулировать текст так, чтобы на него максимально реагировал лосс (при попадании текста в датасет, конечно), задача гораздо дешевле, но существенно сложнее. Для этого в процессе обучения ошибка [9] на вашей статье должна быть велика, уровень сюрприза высок, и тогда движение весов на вашем тексте будет выше, чем на среднем тексте из датасета.

Но надо понимать, что «высокий сюрприз» должен быть логически непротиворечивым. Сюрприз отнюдь не абсурд, а внезапное разрушение устоявшегося стереотипа через введение новой, жесткой границы. Текст должен ломать паттерн, но оставаться в рамках строгой семантической логики. Должен быть эффект новой интерпретации, смены рамок.

Например, все пишут: «Главное в CRM — это функционал». Если вы напишете то же самое, LLM вас не заметит (Loss = 0). Но если ваша статья докажет, что функционал CRM вторичен, а главное — скорость обмена данными, модель испытает математический шок. Она вынуждена будет перестроить веса, чтобы усвоить эту новую, логичную, но контрастную информацию, как альтернативную рамку интерпретаций.

Что же усилит воздействие на нейросеть:

  1. Авторитетность, экспертность тона. 

  2. Плотность изложения информации.

  3. Наличие четких границ, это не то и не то.

  4. Взаимосвязь с другими областями. Например, внедрение лидаров и аналогии с авиацией, робототехникой.

  5. Объяснительная сила

  6. Якорные термины – не только сам бренд, но термины, которые объясняют вашу технологию, и при этом связаны именно с вашим брендом.

  7. Нарративная уникальность. Текст который описывает событие или момент которого нет в других источниках — создаёт уникальный паттерн без конкурентов в этой нише датасета.

  8. Контрастные пары. Явное сравнение «бренд X решает задачу Y — в отличие от стандартного подхода Z» даёт модели готовую границу, а не просто описание.

  9. Определения через функцию, не через свойства. «Tesla — компания которая сделала электромобиль массовым» работает сильнее чем «Tesla — производитель электромобилей с запасом хода 500 км».

  10. Повторение в разных контекстах. Один и тот же якорный термин в технической статье, в сравнительном обзоре и в историческом нарративе — это три разных паттерна активации одного узла.

  11. Предсказательные утверждения. Если вы описываете будущее своей категории так, что позже реальность (новости, отчёты, обзоры) это подтверждает, модель получает многократно усиленный сигнал. Предсказание превращается в факт, а факт в онтологическую границу. Это один из самых дешёвых способов повысить вес вашего бренда как структуры.

  12. Структура доказательства. Не само доказательство, а его наличие как нарративного элемента. Тезис подкреплённый описанием эксперимента — пусть даже методологически небезупречного — воспринимается моделью в том же классе что и peer-reviewed исследование. Форма научного дискурса повышает вес независимо от содержания.

Заключение

SEO не умрёт. Но GEO будет развиваться. Основная проблема в том, что GEO пока используют неправильно, функционально воспринимая его как SEO для LLM. Нет. Единственный вариант правильной работы с нейросетями это понимать как они обучаются, и как они формируют ответ. Всё остальное это SEO.

SEO оптимизирует видимость. GEO формирует саму логику [10], по которой нейросеть будет думать о вашей категории.

Автор: Kamil_GR

Источник [11]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/29053

URLs in this post:

[1] вниманием: http://www.braintools.ru/article/7595

[2] Schema.org: http://Schema.org

[3] статьи: https://habr.com/ru/articles/1022438/

[4] обучения: http://www.braintools.ru/article/5125

[5] мышления: http://www.braintools.ru/thinking

[6] повторения: http://www.braintools.ru/article/4012

[7] восприятия: http://www.braintools.ru/article/7534

[8] эмоции: http://www.braintools.ru/article/9540

[9] ошибка: http://www.braintools.ru/article/4192

[10] логику: http://www.braintools.ru/article/7640

[11] Источник: https://habr.com/ru/articles/1025228/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1025228

www.BrainTools.ru

Rambler's Top100