Власти США рассматривают возможность проверки моделей ИИ перед их выпуском. дональд трамп.. дональд трамп. Законодательство в IT.. дональд трамп. Законодательство в IT. ИИ.. дональд трамп. Законодательство в IT. ИИ. искусственный интеллект.. дональд трамп. Законодательство в IT. ИИ. искусственный интеллект. регуляция.. дональд трамп. Законодательство в IT. ИИ. искусственный интеллект. регуляция. сша.. дональд трамп. Законодательство в IT. ИИ. искусственный интеллект. регуляция. сша. указ.

Администрация президента Дональда Трампа рассматривает введение механизма государственной проверки новых моделей ИИ до их публичного запуска. Об этом сообщает The New York Times со ссылкой на источники, знакомые с ходом обсуждений.

Речь идёт о возможном указе, который создаст специальную рабочую группу с участием чиновников и представителей технологических компаний. Такая группа должна будет выработать процедуры оценки рисков, связанных с выпуском продвинутых ИИ‑систем.

Источники утверждают, что представители администрации уже провели встречи с крупнейшими игроками рынка, включая OpenAI, Google и Anthropic, где обсуждались возможные параметры регулирования.

Инициатива может стать резким разворотом политики Белого дома. До этого Трамп выступал за минимальное вмешательство государства в развитие ИИ и отменил указ администрации Джо Байдена, согласно которому компании были обязаны делиться результатами тестирования безопасности своих моделей.

Новый подход обсуждается на фоне растущих опасений по поводу рисков продвинутых систем. В частности, внимание властей привлекли разработки Anthropic — журналисты пишут, их новые модели продемонстрировали способность находить уязвимости и потенциально использовать их, что вызвало обеспокоенность Белого дома касательно кибербезопасности.

Пока окончательное решение не принято. Рассматриваемые меры могут ограничиться доступом правительства к информации о моделях и их тестировании, без прямого запрета на выпуск. Но сам факт обсуждения подобных механизмов сигнализирует о смене курса — от отказа от регуляции к более осторожному контролю за развитием искусственного интеллекта.

Автор: avouner

Источник