Министр обороны США вызвал генерального директора Anthropic Дарио Амодея на встречу в Пентагон после обострения спора вокруг военного использования модели Claude. Поводом стали ограничения, которые компания накладывает на применение своей нейросети в оборонных и разведывательных задачах.
По данным TechCrunch, встреча может стать ключевой для дальнейшего сотрудничества Anthropic с американским военным ведомством. В Пентагоне недовольны тем, что политика безопасности Claude запрещает ряд сценариев применения, включая некоторые формы наблюдения и участие в боевых операциях. При этом именно Claude уже используется внутри закрытых государственных систем и считается важным инструментом для анализа данных и планирования.
Конфликт отражает более широкий раскол между разработчиками AI и государственными структурами. Технологические компании стараются ограничивать потенциально опасные сценарии применения своих моделей, тогда как военные рассматривают искусственный интеллект как стратегическую инфраструктуру, напрямую влияющую на безопасность и скорость принятия решений.
Ситуация осложняется тем, что рынок оборонного AI стремительно растет, а государственные контракты становятся одним из главных источников финансирования отрасли. В случае отказа смягчить ограничения Anthropic рискует потерять доступ к оборонным проектам США, включая работу с Министерством обороны.
Фактически речь идет не только о судьбе одной компании, а о формировании новых правил взаимодействия между AI-разработчиками и государством. Вопрос теперь звучит шире: кто должен определять границы применения искусственного интеллекта, сами технологические компании или государственные институты.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn


