Anthropic теперь официально классифицируется как риск для цепочки поставок в США. anthropic.. anthropic. Claude.. anthropic. Claude. Законодательство в IT.. anthropic. Claude. Законодательство в IT. Информационная безопасность.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект. Киберпанк.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект. Киберпанк. Минобороны США.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект. Киберпанк. Минобороны США. пентагон.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект. Киберпанк. Минобороны США. пентагон. угроза.. anthropic. Claude. Законодательство в IT. Информационная безопасность. искусственный интеллект. Киберпанк. Минобороны США. пентагон. угроза. цепочки поставок.

Министерство обороны США официально уведомило Anthropic о том, что компания и её продукты отнесены к категории рисков для цепочки поставок Соединённых Штатов, сообщил в пресс-релизе разработчик Claude. Пентагон принял такое решение после конфликта с Anthropic. В конце прошлого месяца генеральный директор компании Дарио Амодей отказался предоставить американскому Минобороны полный доступ к системам искусственного интеллекта Anthropic.

Anthropic теперь официально классифицируется как риск для цепочки поставок в США - 1

Обычно такую категорию рисков присваивают иностранным противникам. Любая компания и федеральное агентство, сотрудничающие с Пентагоном, теперь должны подтвердить, что они не используют модели Anthropic.

Результаты расследования военного ведомства США угрожают подорвать работу как компании, так и собственных операций. Anthropic была единственной передовой лабораторией ИИ, располагающей системами, готовыми к использованию в секретных целях. В настоящее время американские военные используют Claude в своей кампании в Иране для быстрого управления данными. Claude — один из основных инструментов, развёрнутых в интеллектуальной системе Maven от Palantir, на которую полагаются военные операторы на Ближнем Востоке.

Классификация Anthropic как риск для цепочки поставок стала беспрецедентным шагом Минобороны США, заявил бывший советник президента США Дональда Трампа Дин Болл. По его словам, американское правительство отказалось от стратегической ясности и уважения в пользу «бандитского» трайбализма, который относится к отечественным инновациям хуже, чем к иностранным противникам.

Сотни сотрудников Google и OpenAI потребовали от Пентагон отозвать своё решение о присвоении статуса угрозы Anthropic, а также призвали Конгресс противостоять неправомерному использованию полномочий против американской технологической компании. Сотрудники рассчитывают, что их руководство объединится и откажет Минобороны в использовании ИИ-моделей для массовой слежки внутри страны и автономного оружия.

Также в конце февраля OpenAI заключила собственное соглашение с Пентагоном, позволяющее военным использовать ИИ-системы компании «для всех законных целей». На фоне сделки количество удалений ChatGPT выросло на 295%, что вывело Anthropic на первое место самых популярных приложений в американском App Store.

Амодей назвал действия Министерства обороны «ответными и карательными». По мнению главы Anthropic, конфликту способствовал отказ компании хвалить Трампа или делать ему пожертвования. При этом убеждённый сторонник Трампа президент OpenAI Грег Брокман в прошлом месяце пожертвовал $25 млн MAGA Inc. Super PAC.

Anthropic настаивает, что не считает современные ИИ-модели достаточно надёжными для использования в полностью автономном оружии. Компания указывает, что массовое внутреннее наблюдение за гражданами США нарушает основные права человека. Разработчик Claude заключил договор с Минобороны на $200 млн летом 2025 года.

После расторжения договора военное ведомство предоставило себе шесть месяцев льготного периода, прежде чем прекратить использование технологий Anthropic, «чтобы обеспечить плавный переход к более совершенному и патриотичному сервису». Anthropic планирует оспорить решение Пентагона в суде.

Автор: Travis_Macrif

Источник

Rambler's Top100