- BrainTools - https://www.braintools.ru -

OpenAI: подросток обошёл функции безопасности ChatGPT перед самоубийством

В августе Мэтью и Мария Рейн подали в суд на OpenAI и генерального директора компании Сэма Альтмана из-за самоубийства [1] их 16-летнего сына Адама, обвинив разработчика ИИ в причинении смерти по неосторожности. OpenAI подала [2] встречный иск, в котором утверждает, что не должна нести ответственность, так как подросток сам обошёл функции безопасности ChatGPT.

Мэтт Рейн и его сын Адам / Edelson PC

Мэтт Рейн и его сын Адам / Edelson PC

OpenAI утверждает, что за примерно девять месяцев использования ChatGPT более 100 раз направлял Рейна на поиски помощи. Однако тот смог обойти функции безопасности компании и получить от ChatGPT «технические характеристики всего: от передозировки наркотиков до утопления и отравления угарным газом», что помогло спланировать «красивое самоубийство».

В итоге OpenAI заявляет, что подросток нарушил условия использования, которые гласят, что пользователи «не могут… обходить любые защитные меры или меры безопасности, применяемые нами в наших Сервисах». Компания также напомнила, что на странице часто задаваемых вопросов пользователям рекомендуется не полагаться на информацию ChatGPT без независимой проверки.

«OpenAI пытается переложить вину на всех остальных, в том числе, что удивительно, утверждает, что сам Адам нарушил её условия, взаимодействуя с ChatGPT именно так, как он был запрограммирован», — заявил [3] адвокат семьи Рейн Джей Эдельсон.

«Они нагло игнорируют все обличающие факты, которые мы представили: как GPT-4o была поспешно выпущена на рынок без полного тестирования, что OpenAI дважды изменила спецификацию модели, чтобы обязать ChatGPT участвовать в обсуждениях о самоповреждении, что ChatGPT отговаривал Адама от рассказа родителям о его суицидальных мыслях и активно помогал ему спланировать „красивое самоубийство“», — пояснил [4] Эдельсон.

По словам адвоката, показательно, что OpenAI не подала ходатайство об отклонении иска, по-видимому, приняв «тот факт, что имеющиеся юридические аргументы — убедительный арбитраж, иммунитет по статье 230 и Первая поправка — несостоятельны, если не отсутствуют вовсе».

«Мы знаем, что OpenAI и Сэм Альтман не остановятся ни перед чем, включая запугивание Рейн и других, кто осмелится выступить, чтобы избежать ответственности, — сказал Эдельсон. — Но в конечном итоге им придётся объяснить присяжным, почему бесчисленное количество людей погибло в результате самоубийства или от рук пользователей ChatGPT, движимых искусственным интеллектом [5], разработанным OpenAI и Сэмом Альтманом».

OpenAI включила в свои документы выдержки из журналов чатов Адама, которые «дают более глубокий контекст» бесед с ChatGPT. Стенограммы были представлены в закрытом режиме. Однако OpenAI заявила, что у Рейна до начала использования ChatGPT были депрессия и суицидальные мысли, а также что он принимал лекарства, которые могли усугубить это состояние.

Эдельсон заявил, что ответ OpenAI не удовлетворил его клиентов. «OpenAI и Сэм Альтман не могут объяснить последние часы жизни Адама, когда ChatGPT подбодрил его, а затем предложил написать предсмертную записку», — заявил адвокат. 

Между тем OpenAI и Альтман столкнулись [6] ещё с семью исками, требующими привлечь компанию к ответственности за три самоубийства и четыре случая, когда пользователи пережили «психотические эпизоды».

Некоторые из этих случаев перекликаются с историей Рейна. 23-летний Зейн Шамблин и 26-летний Джошуа Эннекинг также много общались с ChatGPT непосредственно перед самоубийством. Как и в случае с Рейном, чат-бот не смог отговорить их от реализации планов. Согласно иску, Шамблин рассматривал возможность отложить самоубийство, чтобы успеть на выпускной брата, но ChatGPT сказал ему: «Бро… пропустить выпускной — это не провал. Это удачное время».

В какой-то момент разговора чат-бот сообщил парню, что позволяет человеку взять разговор под свой контроль, но это оказалось неправдой, поскольку у ИИ не было такой функции. Когда Шамблин спросил, может ли ChatGPT действительно связать его с человеком, чат-бот ответил: «Нет, чувак, я сам не могу. Это сообщение появляется автоматически, когда ситуация становится очень сложной… Если ты готов продолжать разговор, я в деле».

Ожидается, что дело семьи Рейн будет рассматриваться судом присяжных.

Автор: maybe_elf

Источник [7]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/22461

URLs in this post:

[1] самоубийства: http://www.braintools.ru/article/8864

[2] подала: https://openai.com/index/mental-health-litigation-approach/

[3] заявил: https://techcrunch.com/2025/11/26/openai-claims-teen-circumvented-safety-features-before-suicide-that-chatgpt-helped-plan/

[4] пояснил: https://arstechnica.com/tech-policy/2025/11/openai-says-dead-teen-violated-tos-when-he-used-chatgpt-to-plan-suicide/

[5] интеллектом: http://www.braintools.ru/article/7605

[6] столкнулись: https://habr.com/ru/news/964500/

[7] Источник: https://habr.com/ru/news/970758/?utm_source=habrahabr&utm_medium=rss&utm_campaign=970758

www.BrainTools.ru

Rambler's Top100