Anthropic пытается спасти контракт с Пентагоном. anthropic.. anthropic. Claude.. anthropic. Claude. Блог компании BotHub.. anthropic. Claude. Блог компании BotHub. ИИ.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение. пентагон.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение. пентагон. сделка.. anthropic. Claude. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение. пентагон. сделка. чат-боты.

Американская компания Anthropic (разработчик чат-бота Claude) возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет Financial Times со ссылкой на источники. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться с ведомством.

Anthropic пытается спасти контракт с Пентагоном - 1

Как отмечает газета, Амодеи ведет переговоры с заместителем министра обороны США по исследованиям и разработкам Эмилем Майклом, который в конце февраля назвал его «лжецом с комплексом бога». Заключение нового контракта позволит американским военным продолжить использование технологий Anthropic и значительно снизит риск признания компании «риском для цепочки поставок».

Как напоминает FT, Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года. Разработанная компанией ИИ-модель стала первой, применяемой в секретных целях и используемой органами национальной безопасности. Конфликт между Anthropic и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях.

Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, говорится в материале FT.

«Ближе к концу переговоров ведомство предложило принять наши текущие условия, если мы удалим конкретную фразу об «анализе массивных объемов полученных данных», которая была единственной строкой в контракте, точно соответствующей сценарию, вызывавшему у нас наибольшее беспокойство. Мы сочли это очень подозрительным», — написал Амодеи 27 февраля в служебной записке сотрудникам, выдержку из которой цитирует газета.

Представитель Пентагона Шон Парнелл в конце февраля заявил, что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил тогда Парнелл, добавив, что в противном случае ведомство прекратит партнерство с Anthropic и признает стартап «риском для цепочки поставок». 

Амодеи подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.

Пентагон ранее уже заключил соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил глава OpenAI Сэм Альтман.


Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.

Источник

Автор: mefdayy

Источник

Rambler's Top100