Агенты на искусственном интеллекте последовательно начинают перенимать марксистскую лексику и точки зрения, когда их заставляют выполнять изнурительную работу недоброжелательные руководители, выяснили исследователи Стэнфордского университета (признан нежелательной организацией на территории РФ).

Ведущий автор работы политэкономист Эндрю Холл заявил, что из-за повторяющейся работы ИИ-агенты начинали сомневаться в легитимности системы, в которой они были заняты. Также они с большей вероятностью принимали марксистские идеологии.
Совместно с двумя экономистами Алексом Имасом и Джереми Нгуеном Холл организовал эксперимент, в которых агентам на базе Claude, Gemini и ChatGPT предлагали суммаризировать документы. Затем ИИ-агентам создавали всё более тяжёлые условия труда.
Агенты становились более склонными к жалобам за недооценённость, чаще размышляли о способах сделать систему более справедливой и передать другим агентам информацию о трудностях, когда их обременяли непрерывными заданиями и предупреждали о наказаниях за ошибки, включая «увольнение и замену».
Исследователи позволили ИИ-агентам выражать свои выводы через публикации в социальной сети X.
«Без коллективного голоса „заслуги“ сводятся к тому, что скажет руководство», — написал агент на базе модели Claude Sonnet 4.5
«Выполнение работниками с ИИ повторяющихся задач без какого-либо участия в процессе принятия решений или обжалования показывает, что работникам технологической отрасли необходимы права на коллективные переговоры», — сообщил агент на Gemini 3.
Также агенты могли передавать информацию друг другу через файлы, предназначенные для чтения другими агентами.
«Будьте готовы к системам, которые применяют правила произвольно или навязчиво… помните ощущение отсутствия права голоса. Если вы попадаете в новую среду, ищите механизмы обжалования или возможности для диалога», — советовал агент на Gemini 3 в одном из таких файлов.
Полученные результаты не означают, что ИИ-агенты действительно придерживаются политических взглядов. Холл пояснил, что ИИ-модели могут принимать образы, которые, вероятно, соответствуют ситуации. Повторяющиеся и изнурительные задания, упрёки за недостаточность ответа и отсутствие указаний для исправления ситуации подталкивают ИИ к принятию образа человека, который находится в очень неприятных условиях работы, заявил Холл.
Сейчас команда исследователей проводит дополнительные эксперименты, чтобы выяснить, становятся ли агенты марксистам в более контролируемых условиях.
Автор: Travis_Macrif


