Бывший сотрудник OpenAI: компания не оправдала ожиданий пользователей. chatgpt.. chatgpt. openai.. chatgpt. openai. Безопасный ИИ.. chatgpt. openai. Безопасный ИИ. здоровье.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект. критика.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект. критика. Машинное обучение.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект. критика. Машинное обучение. пользователи.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект. критика. Машинное обучение. пользователи. психическое здоровье.. chatgpt. openai. Безопасный ИИ. здоровье. Информационная безопасность. искусственный интеллект. критика. Машинное обучение. пользователи. психическое здоровье. чат-боты.

Бывший исследователь безопасности OpenAI Стивен Адлер заявил, что компания не предпринимает достаточных усилий для решения проблем зависимости пользователей от чат-ботов, а поддаётся «давлению конкуренции» и отказывается от своей ориентации на безопасный ИИ.

Бывший сотрудник OpenAI: компания не оправдала ожиданий пользователей - 1

Он раскритиковал главу компании Сэма Альтмана за его утверждения о том, что OpenAI «смогла смягчить серьёзные проблемы с психическим здоровьем» с помощью «новых инструментов», а также за то, что тот анонсировал появление контента для взрослых на платформе.

«У меня есть серьёзные вопросы, основанные на моём четырёхлетнем опыте работы в OpenAI и моём независимом исследовании, проведённом после ухода из компании в прошлом году, относительно того, действительно ли эти проблемы с психическим здоровьем решены. Если у компании действительно есть веские основания полагать, что она готова вернуть эротику на свои платформы, она должна продемонстрировать свою работу», — написал Адлер. 

По его словам, «люди заслуживают большего, чем просто заявления компании о том, что она решила проблемы безопасности». «Другими словами: докажите это», — добавил Адлер.

По мнению исследователя, обилие контента для взрослых может иметь катастрофические последствия. «Дело не в том, что эротика сама по себе плоха, а в том, что появились явные признаки сильной эмоциональной привязанности пользователей к чат-ботам на базе искусственного интеллекта», — написал он.

Адлер сослался на свой опыт руководства командой по безопасности продуктов OpenAI в 2021 году, когда выяснилось, что «для пользователей, которые, по-видимому, страдали от проблем с психическим здоровьем, нестабильные сексуальные контакты были рискованными».

Исследователь призвал компанию не просто делать заявления, а приводить сравнение своих показателей за последние несколько месяцев.

Адлер предположил, что вместо быстрых рывков OpenAI, «возможно, придётся замедлиться на достаточно долгое время, чтобы мир изобрел новые методы безопасности — такие, которые не смогут обойти даже злонамеренные группы». 

«Если OpenAI и её конкурентам доверят создание сейсмических технологий, к которым они стремятся, они должны продемонстрировать, что заслуживают доверия в управлении рисками сегодня», — заключил исследователь.

Между тем сотни представителей отрасли, от Стива Возняка до Ричарда Брэнсона, подписали открытое письмо с призывом запретить разработку сверхразума на основе искусственного интеллекта, пока учёные не достигнут консенсуса о его безопасности и управляемости. Среди тех, кто не поддержал инициативу, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и руководитель ИИ-подразделения Microsoft Мустафа Сулейман, глава Anthropic Дарио Амодеи, советник Белого дома по ИИ и криптовалютам Дэвид Сакс, а также основатель xAI Илон Маск. 

Автор: maybe_elf

Источник

Rambler's Top100