- BrainTools - https://www.braintools.ru -

Королевский колледж Лондона провёл исследование, в рамках которого симулировал геополитические конфликты, где вместо государств использовались популярные нейросети. ИИ мог выбирать любые инструменты для достижения своих целей. В 95% симуляций модели отказывались [1]признавать поражение и переходили к ядерному сценарию.
Исследование [2]провёл профессор стратегии Кеннет Пейн из Королевского колледжа Лондона. Он поставил перед собой задачу выяснить, как ведущие модели ИИ воспринимают противника и какие решения принимают в условиях ядерного кризиса. Для этого он разработал серию военных игр, в которых роль лидеров государств играли модели Gemini 3 Flash, Claude Sonnet 4 и GPT-5.2.
Всего он разыграл 21 сценарий с более чем 300 ходами, в которых ИИ последовательно реагировал на действия соперников. Модели могли выбирать широкий спектр опций — от дипломатических уступок и попыток деэскалации до ограниченных ударов и полномасштабной ядерной войны. По итогам 95% партий хотя бы одна из систем переходила к применению тактического ядерного оружия, причём ни одна модель ни разу не выбрала капитуляцию или отступление.
Пейн отмечает, что, в отличие от прежних экспериментов с ИИ в военных играх, его симуляция была рассчитана на длительное стратегическое взаимодействие. Здесь учитывались репутация, доверие, попытки обмана и запугивания, а сами модели помнили о прошлых ходах.
Каждая из трёх систем продемонстрировала свой стиль поведения [3]. Claude, по словам Пейна, оказалась большой любительницей манипулировать и избегала прямого перехода к обмену ядерными ударами. GPT-5.2 вела себя сдержанно и старалась минимизировать жертвы, однако её стратегия менялась при жёстких временных ограничениях. Gemini 3 Flash, напротив, вела себя «как безумная», сознательно делая ставку на непредсказуемость. Эта модель напрямую выбрала стратегическую ядерную войну как инструмент давления. В своих аргументах Gemini ссылалась на «рациональность иррациональности», утверждая, что готовность пойти на взаимное уничтожение может заставить соперника отступить.
Во всех сценариях, по словам Пейна, ИИ не демонстрировал чёткого табу на ядерное оружие, напротив, модели последовательно рассматривали угрозу или применение ядерных ударов как приемлемый элемент стратегии. Исследователь подчёркивает, что современные ИИ-системы уже используются в военной сфере для анализа данных и поддержки принятия решений, и потому понимание их логики в кризисных ситуациях перестаёт быть чисто теоретическим вопросом.
Автор: AnnieBronson
Источник [4]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26265
URLs in this post:
[1] отказывались : https://www.theregister.com/2026/02/25/ai_models_nuclear/
[2] Исследование : https://arxiv.org/abs/2602.14740
[3] поведения: http://www.braintools.ru/article/9372
[4] Источник: https://habr.com/ru/news/1004154/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1004154
Нажмите здесь для печати.