- BrainTools - https://www.braintools.ru -

OpenAI наймёт нового руководителя отдела «обеспечения готовности ИИ»

СМИ выяснили [1], что OpenAI ищет нового руководителя отдела «готовности», который поможет компании предвидеть потенциальный вред от использования её моделей и способы злоупотреблений, чтобы направлять стратегию безопасности.

OpenAI наймёт нового руководителя отдела «обеспечения готовности ИИ» - 1

В своём посте генеральный директор OpenAI Сэм Альтман признал [2], что «потенциальное влияние моделей на психическое здоровье мы наблюдали ещё в 2025 году» наряду с другими «реальными проблемами», возникшими вместе с новыми возможностями ИИ. «Руководитель отдела готовности “является критически важной ролью в важный момент”», — отметил он.

Согласно описанию [3] вакансии, менеджер с зарплатой $555 000 в год и долей в компании «будет руководить технической стратегией и реализацией концепции готовности OpenAI, которая объясняет подход к отслеживанию и подготовке к новым рискам серьёзного вреда».

«Эти вопросы сложны, и прецедентов мало; многие идеи, которые звучат хорошо, имеют реальные исключения… Это будет стрессовая работа, и вы практически сразу окажетесь в гуще событий», — написал Альтман.

Менеджер «будет руководить небольшой, но высокоэффективной командой для проведения основных исследований в области готовности, а также будет тесно сотрудничать с подразделениями Safety Systems и OpenAI для комплексного внедрения и реализации концепции». Компания ищет человека, «умеющего принимать чёткие, ответственные технические решения в условиях неопределённости».

Он будет создавать и координировать оценки возможностей, моделей угроз и мер по их смягчению, «которые формируют целостный, строгий и масштабируемый в оперативном отношении механизм обеспечения безопасности».

Альтман также говорит, что в будущем этот человек будет отвечать за реализацию «системы готовности» компании, обеспечение безопасности моделей ИИ для внедрения «биологических возможностей» и даже установление ограничений для самосовершенствующихся систем.

К концу 2025 года OpenAI столкнулась [4] с многочисленными обвинениями в отношении влияния ChatGPT на психическое здоровье пользователей, включая несколько исков. Авторы одного из них подали [5] в суд на OpenAI из-за самоубийства [6] их 16-летнего сына Адама, обвинив разработчика ИИ в причинении смерти по неосторожности. Компания ответила встречным иском, в котором утверждает, что не должна нести ответственность, так как подросток сам обошёл функции безопасности ChatGPT.

Автор: maybe_elf

Источник [7]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/23834

URLs in this post:

[1] выяснили: https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html

[2] признал: https://www.theverge.com/news/850537/sam-altman-openai-head-of-preparedness

[3] описанию: https://openai.com/careers/head-of-preparedness-san-francisco/

[4] столкнулась: https://habr.com/ru/news/964500/

[5] подали: https://habr.com/ru/news/970758/

[6] самоубийства: http://www.braintools.ru/article/8864

[7] Источник: https://habr.com/ru/news/981492/?utm_source=habrahabr&utm_medium=rss&utm_campaign=981492

www.BrainTools.ru

Rambler's Top100