Американская компания Anthropic (разработчик чат-бота Claude) возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет Financial Times со ссылкой на источники. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться с ведомством.

Как отмечает газета, Амодеи ведет переговоры с заместителем министра обороны США по исследованиям и разработкам Эмилем Майклом, который в конце февраля назвал его «лжецом с комплексом бога». Заключение нового контракта позволит американским военным продолжить использование технологий Anthropic и значительно снизит риск признания компании «риском для цепочки поставок».
Как напоминает FT, Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года. Разработанная компанией ИИ-модель стала первой, применяемой в секретных целях и используемой органами национальной безопасности. Конфликт между Anthropic и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях.
Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, говорится в материале FT.
«Ближе к концу переговоров ведомство предложило принять наши текущие условия, если мы удалим конкретную фразу об «анализе массивных объемов полученных данных», которая была единственной строкой в контракте, точно соответствующей сценарию, вызывавшему у нас наибольшее беспокойство. Мы сочли это очень подозрительным», — написал Амодеи 27 февраля в служебной записке сотрудникам, выдержку из которой цитирует газета.
Представитель Пентагона Шон Парнелл в конце февраля заявил, что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил тогда Парнелл, добавив, что в противном случае ведомство прекратит партнерство с Anthropic и признает стартап «риском для цепочки поставок».
Амодеи подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.
Пентагон ранее уже заключил соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил глава OpenAI Сэм Альтман.
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.
Автор: mefdayy


