- BrainTools - https://www.braintools.ru -
СМИ выяснили [1], что OpenAI ищет нового руководителя отдела «готовности», который поможет компании предвидеть потенциальный вред от использования её моделей и способы злоупотреблений, чтобы направлять стратегию безопасности.

В своём посте генеральный директор OpenAI Сэм Альтман признал [2], что «потенциальное влияние моделей на психическое здоровье мы наблюдали ещё в 2025 году» наряду с другими «реальными проблемами», возникшими вместе с новыми возможностями ИИ. «Руководитель отдела готовности “является критически важной ролью в важный момент”», — отметил он.
Согласно описанию [3] вакансии, менеджер с зарплатой $555 000 в год и долей в компании «будет руководить технической стратегией и реализацией концепции готовности OpenAI, которая объясняет подход к отслеживанию и подготовке к новым рискам серьёзного вреда».
«Эти вопросы сложны, и прецедентов мало; многие идеи, которые звучат хорошо, имеют реальные исключения… Это будет стрессовая работа, и вы практически сразу окажетесь в гуще событий», — написал Альтман.
Менеджер «будет руководить небольшой, но высокоэффективной командой для проведения основных исследований в области готовности, а также будет тесно сотрудничать с подразделениями Safety Systems и OpenAI для комплексного внедрения и реализации концепции». Компания ищет человека, «умеющего принимать чёткие, ответственные технические решения в условиях неопределённости».
Он будет создавать и координировать оценки возможностей, моделей угроз и мер по их смягчению, «которые формируют целостный, строгий и масштабируемый в оперативном отношении механизм обеспечения безопасности».
Альтман также говорит, что в будущем этот человек будет отвечать за реализацию «системы готовности» компании, обеспечение безопасности моделей ИИ для внедрения «биологических возможностей» и даже установление ограничений для самосовершенствующихся систем.
К концу 2025 года OpenAI столкнулась [4] с многочисленными обвинениями в отношении влияния ChatGPT на психическое здоровье пользователей, включая несколько исков. Авторы одного из них подали [5] в суд на OpenAI из-за самоубийства [6] их 16-летнего сына Адама, обвинив разработчика ИИ в причинении смерти по неосторожности. Компания ответила встречным иском, в котором утверждает, что не должна нести ответственность, так как подросток сам обошёл функции безопасности ChatGPT.
Автор: maybe_elf
Источник [7]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/23834
URLs in this post:
[1] выяснили: https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
[2] признал: https://www.theverge.com/news/850537/sam-altman-openai-head-of-preparedness
[3] описанию: https://openai.com/careers/head-of-preparedness-san-francisco/
[4] столкнулась: https://habr.com/ru/news/964500/
[5] подали: https://habr.com/ru/news/970758/
[6] самоубийства: http://www.braintools.ru/article/8864
[7] Источник: https://habr.com/ru/news/981492/?utm_source=habrahabr&utm_medium=rss&utm_campaign=981492
Нажмите здесь для печати.