- BrainTools - https://www.braintools.ru -
Американская компания Anthropic (разработчик чат-бота Claude) возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет [1] Financial Times со ссылкой на источники. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться с ведомством.

Как отмечает газета, Амодеи ведет переговоры с заместителем министра обороны США по исследованиям и разработкам Эмилем Майклом, который в конце февраля назвал его «лжецом с комплексом бога». Заключение нового контракта позволит американским военным продолжить использование технологий Anthropic и значительно снизит риск признания компании «риском для цепочки поставок».
Как напоминает FT, Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года. Разработанная компанией ИИ-модель стала первой, применяемой в секретных целях и используемой органами национальной безопасности. Конфликт [2] между Anthropic и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях.
Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало [3] агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, говорится в материале FT.
«Ближе к концу переговоров ведомство предложило принять наши текущие условия, если мы удалим конкретную фразу об «анализе массивных объемов полученных данных», которая была единственной строкой в контракте, точно соответствующей сценарию, вызывавшему у нас наибольшее беспокойство. Мы сочли это очень подозрительным», — написал Амодеи 27 февраля в служебной записке сотрудникам, выдержку из которой цитирует газета.
Представитель Пентагона Шон Парнелл в конце февраля заявил [3], что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил тогда Парнелл, добавив, что в противном случае ведомство прекратит партнерство с Anthropic и признает стартап «риском для цепочки поставок».
Амодеи подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.
Пентагон ранее уже заключил [4] соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил [5]глава OpenAI Сэм Альтман.
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News [6].
Источник [1]
Автор: mefdayy
Источник [7]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26706
URLs in this post:
[1] пишет: https://www.ft.com/content/97bda2ef-fc06-40b3-a867-f61a711b148b
[2] Конфликт: http://www.braintools.ru/article/7708
[3] передавало: https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/
[4] заключил: https://openai.com/index/our-agreement-with-the-department-of-war/
[5] заявил : https://x.com/sama/status/2027578652477821175
[6] BotHub AI News: https://t.me/bothub
[7] Источник: https://habr.com/ru/companies/bothub/news/1007426/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1007426
Нажмите здесь для печати.