- BrainTools - https://www.braintools.ru -

Anthropic пытается спасти контракт с Пентагоном

Американская компания Anthropic (разработчик чат-бота Claude) возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет [1] Financial Times со ссылкой на источники. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться с ведомством.

Anthropic пытается спасти контракт с Пентагоном - 1

Как отмечает газета, Амодеи ведет переговоры с заместителем министра обороны США по исследованиям и разработкам Эмилем Майклом, который в конце февраля назвал его «лжецом с комплексом бога». Заключение нового контракта позволит американским военным продолжить использование технологий Anthropic и значительно снизит риск признания компании «риском для цепочки поставок».

Как напоминает FT, Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года. Разработанная компанией ИИ-модель стала первой, применяемой в секретных целях и используемой органами национальной безопасности. Конфликт [2] между Anthropic и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях.

Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало [3] агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, говорится в материале FT.

«Ближе к концу переговоров ведомство предложило принять наши текущие условия, если мы удалим конкретную фразу об «анализе массивных объемов полученных данных», которая была единственной строкой в контракте, точно соответствующей сценарию, вызывавшему у нас наибольшее беспокойство. Мы сочли это очень подозрительным», — написал Амодеи 27 февраля в служебной записке сотрудникам, выдержку из которой цитирует газета.

Представитель Пентагона Шон Парнелл в конце февраля заявил [3], что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил тогда Парнелл, добавив, что в противном случае ведомство прекратит партнерство с Anthropic и признает стартап «риском для цепочки поставок». 

Амодеи подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.

Пентагон ранее уже заключил [4] соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил  [5]глава OpenAI Сэм Альтман.


Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News [6].

Источник [1]

Автор: mefdayy

Источник [7]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/26706

URLs in this post:

[1] пишет: https://www.ft.com/content/97bda2ef-fc06-40b3-a867-f61a711b148b

[2] Конфликт: http://www.braintools.ru/article/7708

[3] передавало: https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/

[4] заключил: https://openai.com/index/our-agreement-with-the-department-of-war/

[5] заявил : https://x.com/sama/status/2027578652477821175

[6] BotHub AI News: https://t.me/bothub

[7] Источник: https://habr.com/ru/companies/bothub/news/1007426/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1007426

www.BrainTools.ru

Rambler's Top100