СМИ выяснили, что OpenAI ищет нового руководителя отдела «готовности», который поможет компании предвидеть потенциальный вред от использования её моделей и способы злоупотреблений, чтобы направлять стратегию безопасности.

В своём посте генеральный директор OpenAI Сэм Альтман признал, что «потенциальное влияние моделей на психическое здоровье мы наблюдали ещё в 2025 году» наряду с другими «реальными проблемами», возникшими вместе с новыми возможностями ИИ. «Руководитель отдела готовности “является критически важной ролью в важный момент”», — отметил он.
Согласно описанию вакансии, менеджер с зарплатой $555 000 в год и долей в компании «будет руководить технической стратегией и реализацией концепции готовности OpenAI, которая объясняет подход к отслеживанию и подготовке к новым рискам серьёзного вреда».
«Эти вопросы сложны, и прецедентов мало; многие идеи, которые звучат хорошо, имеют реальные исключения… Это будет стрессовая работа, и вы практически сразу окажетесь в гуще событий», — написал Альтман.
Менеджер «будет руководить небольшой, но высокоэффективной командой для проведения основных исследований в области готовности, а также будет тесно сотрудничать с подразделениями Safety Systems и OpenAI для комплексного внедрения и реализации концепции». Компания ищет человека, «умеющего принимать чёткие, ответственные технические решения в условиях неопределённости».
Он будет создавать и координировать оценки возможностей, моделей угроз и мер по их смягчению, «которые формируют целостный, строгий и масштабируемый в оперативном отношении механизм обеспечения безопасности».
Альтман также говорит, что в будущем этот человек будет отвечать за реализацию «системы готовности» компании, обеспечение безопасности моделей ИИ для внедрения «биологических возможностей» и даже установление ограничений для самосовершенствующихся систем.
К концу 2025 года OpenAI столкнулась с многочисленными обвинениями в отношении влияния ChatGPT на психическое здоровье пользователей, включая несколько исков. Авторы одного из них подали в суд на OpenAI из-за самоубийства их 16-летнего сына Адама, обвинив разработчика ИИ в причинении смерти по неосторожности. Компания ответила встречным иском, в котором утверждает, что не должна нести ответственность, так как подросток сам обошёл функции безопасности ChatGPT.
Автор: maybe_elf


