Сотрудники OpenAI и Google поддержали Anthropic в суде против Пентагона. AI-регулирование.. AI-регулирование. anthropic.. AI-регулирование. anthropic. Claude AI.. AI-регулирование. anthropic. Claude AI. google deepmind.. AI-регулирование. anthropic. Claude AI. google deepmind. openai.. AI-регулирование. anthropic. Claude AI. google deepmind. openai. безопасность AI.. AI-регулирование. anthropic. Claude AI. google deepmind. openai. безопасность AI. Блог компании NeyroHub.. AI-регулирование. anthropic. Claude AI. google deepmind. openai. безопасность AI. Блог компании NeyroHub. искусственный интеллект.. AI-регулирование. anthropic. Claude AI. google deepmind. openai. безопасность AI. Блог компании NeyroHub. искусственный интеллект. пентагон.
Сотрудники OpenAI и Google поддержали Anthropic в суде против Пентагона - 1

Более 30 сотрудников OpenAI и Google DeepMind подали заявление в поддержку компании Anthropic в её судебном иске против Министерства обороны США. Это произошло после того, как ведомство признало AI-компанию «риском для цепочки поставок», следует из судебных документов.

В заявлении говорится, что решение правительства стало «неправомерным и произвольным использованием власти», которое может иметь серьёзные последствия для всей индустрии искусственного интеллекта. Среди подписавших документ — главный научный сотрудник Google DeepMind Джефф Дин.

На прошлой неделе Пентагон присвоил Anthropic статус «риска для цепочки поставок» — такую классификацию обычно применяют к иностранным противникам. Это произошло после того, как компания отказалась разрешить использование своих технологий для массового наблюдения за гражданами США и для автономного применения оружия.

Министерство обороны утверждало, что должно иметь возможность использовать AI для любых «законных» целей и не быть ограниченным условиями частного подрядчика.

Заявление в поддержку Anthropic было подано через несколько часов после того, как компания подала два иска против Министерства обороны и других федеральных ведомств. Первым об этом сообщил журнал Wired.

В документе сотрудники OpenAI и Google отмечают, что если Пентагон был недоволен условиями контракта с Anthropic, он мог просто расторгнуть соглашение и обратиться к другой AI-компании.

При этом Министерство обороны почти сразу после присвоения Anthropic статуса риска заключило соглашение с OpenAI — шаг, который вызвал недовольство среди некоторых сотрудников компании.

В заявлении также говорится, что попытка наказать одну из ведущих американских AI-компаний может негативно повлиять на научную и промышленную конкурентоспособность США в сфере искусственного интеллекта. По мнению авторов документа, такие действия могут подавить открытые дискуссии в отрасли о рисках и возможностях современных AI-систем.

Подписавшие документ также подчеркнули, что ограничения, которые Anthropic пытается установить для использования своих моделей, являются обоснованными. Пока законодательство не регулирует применение AI напрямую, договорные и технические ограничения со стороны разработчиков остаются важным механизмом предотвращения потенциально опасного использования технологий.

Многие сотрудники, поддержавшие заявление, ранее также подписывали открытые письма с призывом к Министерству обороны отменить присвоенный статус и призвать руководителей AI-компаний поддержать позицию Anthropic.


Источник

Больше полезного о нейросетях и технологиях — в нашем канале NH | Новости технологий, AI и будущее. Там публикуем новости AI, интересные сервисы, автоматизацию и реальные способы заработка на нейросетях. А если нужна зарубежная карта для оплаты сервисов — можно почитать здесь, как выпустить её за 10 минут.

Автор: TechLabNews

Источник