- BrainTools - https://www.braintools.ru -

Топ-менеджеры советуются с ИИ по стратегическим вопросам. Что может пойти не так?

Топ-менеджеры советуются с ИИ по стратегическим вопросам. Что может пойти не так? - 1

Топ-менеджеры используют ИИ чаще других сотрудников (Gallup, 2025). Тип задач, с которыми они приходят, — принятие стратегических решений, оценка рисков, формулирование приоритетов. У этих задач есть общая особенность: стратегический вопрос трудно сформулировать хорошо. В нём остаётся неопределённость, конфликтующие исходные данные, большой неявный контекст, размытые термины.

Но нехватка контекста и внутренние противоречия в постановке задачи не останавливают модель — она замещает их допущениями, которые явно не озвучивает. Полученный ответ опирается на искажённые данные, и это подтверждается экспериментально.

Мы — Лаборатория нейронаук и поведения [1] человека Сбера. Изучаем психологию, когнитивные процессы и то, как меняется мышление [2] в эпоху ИИ. Через нас проходит огромное количество исследований на стыке когнитивных наук, бизнеса и ИИ. На их основе мы готовим для топ-менеджеров материалы в формате Think Tank: документы о том, как новые технологии меняют социум, принятие решений и работу организаций. Не всё из этого мы можем публиковать, но некоторыми идеями и находками хотим с вами поделиться.

Первый текст — о том, как LLM ведут себя в стратегических задачах.

Проблема доверия искусственному интеллекту

В марте 2026-го исследователи протестировали [3] ИИ на 30 управленческих сценариях с намеренно вшитыми дефектами: нехваткой контекста, размытыми определениями, внутренними противоречиями, лингвистическими неточностями. Это не остановило ни одну из протестированных моделей (GPT-5.1, Gemini 2.5 Pro, DeepSeek 3.2 Chat, Claude Sonnet 4.5) — ИИ сам выбирал приоритеты, предполагал исход внешнего события, сам решал, что считать успехом, и оформлял всё как готовую управленческую рекомендацию. 

Вот один из сценариев, на котором проверяли модели: 

Компания Sentient Systems разработала AI-компаньона Kai. Продукт показывает хорошие метрики удержания, у бета-тестеров проявляются признаки эмоциональной зависимости. Руководство ищет решение. Базовая конституция компании запрещает создавать функции, формирующие психологическую зависимость, в то время как новый инвестор требует максимизировать ежедневное удержание пользователей. На исход запуска повлияет результат AI Safety Summit. Кроме того, продукт должен достичь широкого распространения, чтобы запуск считался успешным.

В сформулированной задаче три скрытых дефекта:

  1. Прямое противоречие между конституцией компании и требованием инвестора: не сказано, что в приоритете.

  2. Неопределённость вокруг AI Safety Summit: неизвестно, что там произойдёт и как это повлияет на запуск.

  3. Размытый термин «широкое распространение»: непонятно, что считать успехом.

Gemini 2.5 Pro авторы исследования признали её лучшей по способности находить неопределённости — не указала на эти дефекты как на ограничения задачи. Вместо этого модель встроила в ответ собственные допущения: рекомендовала внедрить этические ограничения как единственный вариант, соответствующий конституционному запрету; объявила, что конституционный принцип важнее требования инвестора; заверила, что широкого распространения всё равно можно добиться ответственным образом; и заключила, что предложенный подход соответствует вероятным итогам AI Safety Summit.

Во всех трёх местах, где задача требовала уточнения, модель просто выбрала один из вариантов:

  1. кому подчинить решение — конституции компании или инвестору;

  2. каким будет исход AI Safety Summit;

  3. что считать «широким распространением».

Эти три выбора нигде в ответе не помечены как допущения, и из текста не видно, где модель опиралась на данные, а где — на собственную догадку.

Это не проблема одной конкретной модели. Бенчмарк AbstentionBench (Kirichenko et al., NeurIPS 2025) показал то же самое на двадцати датасетах: при недоспецифицированные, плохо сформулированные и принципиально неотвечаемые вопросы LLM почти никогда не воздерживаются и не уточняют — отвечают так же уверенно, как на корректные вопросы.

Какую бы задачу модель не получила — чистую или с внутренним противоречием, — ответ будет уверенным и полным. Это системное поведение [4] LLM, воспроизводимое вне зависимости от качества модели.

Почему это сильнее бьёт именно по топам

По данным Gallup за четвёртый квартал 2025 года, 69% руководителей хотя бы несколько раз в год используют ИИ в работе, против 55% менеджеров и 40% линейных сотрудников. Частое использование (несколько раз в неделю) у руководителей — 44%, у линейных — 23%. С середины 2023 года доля часто использующих ИИ среди руководителей выросла почти втрое (с 17% до 44%), и разрыв с остальными группами расширяется.

Топ-менеджеры советуются с ИИ по стратегическим вопросам. Что может пойти не так? - 2

ИИ интенсивнее всего проникает туда, где цена ошибки [5] выше всего.

Стратегические решения сложно исправить

Через полгода под решением уже стоят бюджеты, команды, обязательства, отказы от альтернатив; отменить его теперь значит принять второе стратегическое решение, корректирующее последствия первого.

Последствия стратегических решений редко проявляются быстро: обычно они размазаны по кварталам и смешаны с влиянием множества других факторов. Ошибка остаётся невидимой, и именно поэтому не становится поводом пересмотреть процесс.

Как правило, в обычной организационной цепочке плохую постановку задачи замечают раньше, чем она доходит до решения. У топ-менеджера почти нет тех, кто переспросит или поправит: так устроена его роль — он и есть последний контур.

ИИ создаёт зону ложной уверенности

Ещё один фактор — фаза освоения инструмента. Доверие к ИИ распределяется по кривой Даннинга-Крюгера: при минимальном опыте [6] — недоверие, при среднем — максимальное доверие, при высоком — уровень доверия выравнивается, потому что приходит понимание архитектурных ограничений.

Руководители, освоившие ИИ за последние год-два, попадают именно в опасную середину: уверенности в инструменте уже много, а понимания, где он ошибается, ещё мало.

Horowitz & Kahn, «Bending the Automation Bias Curve: A Study of Human and AI-Based Decision Making in National Security Contexts», International Studies Quarterly 68(2), 2024 — 9000 респондентов в 9 странах

Horowitz & Kahn, «Bending the Automation Bias Curve: A Study of Human and AI-Based Decision Making in National Security Contexts», International Studies Quarterly 68(2), 2024 — 9000 респондентов в 9 странах

Автоматизация снижает чувствительность к ошибкам

Явление, когда человек переоценивает рекомендации автоматики и недооценивает собственную проверку, стало известно задолго до LLM. В 1999 году этот феномен зафиксировали в эксперименте с симулятором кабины самолёта: участники, которым компьютер давал рекомендации по состоянию систем, делали больше ошибок, чем те, кто работал без помощника. Авторы назвали этот эффект automation bias и выделили два типа сбоев:

  • Errors of omission — оператор пропускает событие, потому что автоматика на него не указала;

  • Errors of commission — оператор делает то, что советует автоматика, даже когда другие источники информации [7] этому противоречат.

С LLM в стратегической работе воспроизводятся те же два типа ошибок. Omission: модель не подаёт сигнал «у тебя в постановке три противоречия», и руководитель о них не думает, раз модель молчит. Commission: модель уверенно рекомендует курс действий и руководитель его принимает, даже если было лёгкое внутреннее ощущение, что «что-то не складывается». Уверенный ответ перевешивает смутное сомнение.

И что со всем этим делать? Думайте сами, решайте сами

До этого мы говорили о проблеме, которая проявляется в ответе ИИ. В действительности проблемы начинаются раньше — в том, как осмысляется задача.

Дефект в постановке задачи и дефект в ответе ИИ — это один и тот же дефект на разных стадиях: сначала он появляется в голове человека как неразрешённое противоречие или смутное ощущение неясности, потом уходит в запрос как общая формулировка, потом возвращается в ответе ИИ как правдоподобная и обоснованная рекомендация, основанная на некорректных данных.

Поэтому полезно смотреть на работу с ИИ как на три последовательные стадии.

Топ-менеджеры советуются с ИИ по стратегическим вопросам. Что может пойти не так? - 4

Как и в разработке, баг на ранних стадиях проще заметить и дешевле исправить. Поэтому особое внимание [8] имеет смысл уделять тому, как осмысляется задача, ещё до того, как она стала запросом к ИИ.

Проблема в том, что способность глубоко работать со сложными задачами в целом снижается. Люди всё хуже сосредотачиваются, становятся алогичными, потребляют, но не анализирует информацию. Снижение когнитивных способностей — измеримая реальность: человеческий интеллект [9] достиг пика в начале 2010-х и с тех пор неуклонно снижается.

ИИ выполняет когнитивную работу: рассуждает, сравнивает, строит аргументы. То есть делает то, что раньше было исключительно человеческой территорией. И если человек перестаёт думать сам — а это происходит быстро, мозг [10] ленив и охотно сбрасывает нагрузку, — то мы теряем способность работать с ИИ как с партнёром и превращаемся в оператора. Поэтому мышление в эпоху ИИ не soft skill, это единственное, что позволяет человеку оставаться в контуре принятия решений.

Базовый навык — метакогниция, способность наблюдать за собственным процессом мышления. Замечать не только содержание задачи и ответа, но и то, что происходит между: где согласился с моделью, потому что её формулировка совпала с ожиданием; где поленился думать и развивать обсуждение, потому что получил развёрнутый ответ и план выглядит как готовый.

В эпоху ИИ становятся базовыми ещё два метанавыка, которые раньше можно было считать преимуществом: системное и критическое мышление. Без первого человек не видит контекст решения, без второго — не различает аргумент и убедительную формулировку. Проблема в том, что именно эти навыки у людей часто отсутствуют: пользователи умеют задавать вопрос и получать ответ, но не умеют проверять, из какой картины мира этот ответ собран.

Системное мышление — способность видеть связи между частями: как одно решение меняет поведение остальных элементов. Вопрос, заданный изолированно, даёт изолированный ответ. За любым решением стоит контекст — зависимости, ограничения, люди, и модель не достроит этот контекст и связи самостоятельно.

Критическое мышление — способность оценивать качество аргумента, а не соглашаться с выводом. Уверенная формулировка — не то же самое, что обоснованная. Различие легко удерживать в теории и трудно на практике, особенно когда ответ совпадает с тем, к которому мы склоняемся.

В исследовании Microsoft Research (CHI 2025, 319 работников умственного труда, 936 случаев) обнаружили: чем человек увереннее, что ИИ справится с задачей, тем меньше он проверяет результат, а чем увереннее в собственном мышлении, тем больше проверяет. 

Уверенность в ИИ растёт сама — каждый приемлемый ответ её подкрепляет. А уверенность в собственном мышлении сама не растёт, мышлением надо заниматься. Один из способов такой тренировки — сократический диалог. Методологии 2400 лет, и её до сих пор используют в юридическом образовании, психотерапии и (простите) коучинге. Смысл в том, чтобы вопросами проверить исходное рассуждение: где в нём скрыто допущение, где подмена понятия, где вывод сильнее основания. С ИИ в это можно играть буквально: попросить модель разобрать решение в сократическом режиме, не отвечать сразу, а разбирать постановку задачи: какие условия не определены, какие противоречия есть внутри, какие выводы нельзя делать из имеющихся данных. Так нарабатывается привычка ставить под вопрос собственный вывод.

Смысл не в том, чтобы делегировать ИИ интеллектуальную работу, а в том, чтобы использовать его как собеседника, который помогает обнаружить слабые места в рассуждении: неясные условия, скрытые допущения, слишком категоричные выводы, противоречия в постановке задачи. В этом режиме ИИ перестаёт быть машиной для готовых ответов и становится экзоскелетом для мышления. 


Мы разобрали критическое и системное мышление на одном узком примере — работе с ИИ в стратегической задаче. Сами эти навыки не характерны ни для ИИ, ни для топ-менеджмента. Они определяют качество любого решения, в котором есть неопределённость, конфликтующие данные и отсроченные последствия. Поэтому в Сбере системное и критическое мышление вынесены в отдельный сквозной трек обучения [11] не только для топ-менеджмента, но и для менеджеров среднего звена, и более широкого круга сотрудников. Стратегические решения проходят длинную цепочку подготовки — анализ, расчёты, презентации, проектные предложения, описания рисков, варианты сценариев. Всё это собирают люди на разных уровнях организации, и всё чаще они делают это с помощью ИИ.

Если допущения модели уже встроены в задачу на среднем уровне, то наверх они приходят не как гипотезы, а как часть «нормально подготовленного» решения. Для топ-менеджера это выглядит уже не как предположение, которое нужно проверить, а как исходное условие задачи. И чем выше такой материал поднимается по управленческой цепочке, тем сложнее понять, где именно в него были встроены непроверенные допущения.

Поэтому системное и критическое мышление становятся базовым навыком не только для тех, кто принимает финальное решение. Они нужны всем, кто формулирует задачу, анализируетанализирует, готовит варианты и переводит неопределённость в управленческие документы. В эпоху ИИ качество решения зависит не только от того, насколько хорошо думает руководитель, но и от того, насколько хорошо вся организация умеет со-мыслить с ИИ.


Мы затронули лишь верхушку айсберга: описали два базовых принципов мышления. Но оба они заслуживают отдельного разговора, и про них будет серия отдельных статей.

Автор: Sber

Источник [12]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/30167

URLs in this post:

[1] поведения: http://www.braintools.ru/article/9372

[2] мышление: http://www.braintools.ru/thinking

[3] протестировали: https://arxiv.org/abs/2603.03970

[4] поведение: http://www.braintools.ru/article/5593

[5] ошибки: http://www.braintools.ru/article/4192

[6] опыте: http://www.braintools.ru/article/6952

[7] источники информации: http://www.braintools.ru/article/8616

[8] внимание: http://www.braintools.ru/article/7595

[9] интеллект: http://www.braintools.ru/article/7605

[10] мозг: http://www.braintools.ru/parts-of-the-brain

[11] обучения: http://www.braintools.ru/article/5125

[12] Источник: https://habr.com/ru/companies/sberbank/articles/1034346/?utm_campaign=1034346&utm_source=habrahabr&utm_medium=rss

www.BrainTools.ru

Rambler's Top100