
В США разгорается скандал вокруг Anthropic и Пентагона, который за две недели превратился в национальную тему. Администрация президента включила Anthropic в список компаний, представляющих риск для оборонных цепочек поставок — прецедент редкий, обычно такой статус получают структуры из иностранных государств, например Huawei.
Пентагон потребовал разрешить военным использовать Claude без каких-либо ограничений, наложенных самой компанией. CEO Anthropic Дарио Амодэй публично отказался, ссылаясь на опасения массовой слежки и автономного оружия. В ответ чиновник Пентагона Эмиль Майкл обвинил Амодэя во лжи и «комплексе бога».
Claude — единственная модель, развернутая в засекреченных системах армии США. Она использовалась в операции по захвату Николаса Мадуро и рассматривается как инструмент потенциальных операций в Иране. Контракт Пентагона с Anthropic на $200 млн будет расторгнут, а все подрядчики Минобороны должны отказаться от использования Claude в своих процессах. Palantir окажется в особенно сложной ситуации, так как применяет Claude для критически важных военных задач.
Пентагон настаивает, что военные не обязаны согласовывать использование купленного инструмента с частной компанией. Министерство обороны ускоряет поиск альтернатив: xAI подписала соглашение об использовании Grok в засекреченных системах, Google Gemini и ChatGPT рассматриваются для перевода в секретные контуры.
Позиция Anthropic вызвала волну поддержки в ИИ-отрасли. Сэм Альтман заявил, что OpenAI сохранит «красные линии» по слежке и автономному оружию, но достиг договоренности с Минобороны о развертывании моделей в секретных сетях с запретом слежки и применения в автономных вооружениях. Anthropic пока не объявляла о планах оспаривать присвоенный статус в суде.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn


