OpenAI: подросток обошёл функции безопасности ChatGPT перед самоубийством. chatgpt.. chatgpt. openai.. chatgpt. openai. Законодательство в IT.. chatgpt. openai. Законодательство в IT. здоровье.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект. подростки.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект. подростки. самоубийство.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект. подростки. самоубийство. суды.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект. подростки. самоубийство. суды. суицид.. chatgpt. openai. Законодательство в IT. здоровье. Информационная безопасность. иски. искусственный интеллект. подростки. самоубийство. суды. суицид. чат-бот.

В августе Мэтью и Мария Рейн подали в суд на OpenAI и генерального директора компании Сэма Альтмана из-за самоубийства их 16-летнего сына Адама, обвинив разработчика ИИ в причинении смерти по неосторожности. OpenAI подала встречный иск, в котором утверждает, что не должна нести ответственность, так как подросток сам обошёл функции безопасности ChatGPT.

Мэтт Рейн и его сын Адам / Edelson PC
Мэтт Рейн и его сын Адам / Edelson PC

OpenAI утверждает, что за примерно девять месяцев использования ChatGPT более 100 раз направлял Рейна на поиски помощи. Однако тот смог обойти функции безопасности компании и получить от ChatGPT «технические характеристики всего: от передозировки наркотиков до утопления и отравления угарным газом», что помогло спланировать «красивое самоубийство».

В итоге OpenAI заявляет, что подросток нарушил условия использования, которые гласят, что пользователи «не могут… обходить любые защитные меры или меры безопасности, применяемые нами в наших Сервисах». Компания также напомнила, что на странице часто задаваемых вопросов пользователям рекомендуется не полагаться на информацию ChatGPT без независимой проверки.

«OpenAI пытается переложить вину на всех остальных, в том числе, что удивительно, утверждает, что сам Адам нарушил её условия, взаимодействуя с ChatGPT именно так, как он был запрограммирован», — заявил адвокат семьи Рейн Джей Эдельсон.

«Они нагло игнорируют все обличающие факты, которые мы представили: как GPT-4o была поспешно выпущена на рынок без полного тестирования, что OpenAI дважды изменила спецификацию модели, чтобы обязать ChatGPT участвовать в обсуждениях о самоповреждении, что ChatGPT отговаривал Адама от рассказа родителям о его суицидальных мыслях и активно помогал ему спланировать „красивое самоубийство“», — пояснил Эдельсон.

По словам адвоката, показательно, что OpenAI не подала ходатайство об отклонении иска, по-видимому, приняв «тот факт, что имеющиеся юридические аргументы — убедительный арбитраж, иммунитет по статье 230 и Первая поправка — несостоятельны, если не отсутствуют вовсе».

«Мы знаем, что OpenAI и Сэм Альтман не остановятся ни перед чем, включая запугивание Рейн и других, кто осмелится выступить, чтобы избежать ответственности, — сказал Эдельсон. — Но в конечном итоге им придётся объяснить присяжным, почему бесчисленное количество людей погибло в результате самоубийства или от рук пользователей ChatGPT, движимых искусственным интеллектом, разработанным OpenAI и Сэмом Альтманом».

OpenAI включила в свои документы выдержки из журналов чатов Адама, которые «дают более глубокий контекст» бесед с ChatGPT. Стенограммы были представлены в закрытом режиме. Однако OpenAI заявила, что у Рейна до начала использования ChatGPT были депрессия и суицидальные мысли, а также что он принимал лекарства, которые могли усугубить это состояние.

Эдельсон заявил, что ответ OpenAI не удовлетворил его клиентов. «OpenAI и Сэм Альтман не могут объяснить последние часы жизни Адама, когда ChatGPT подбодрил его, а затем предложил написать предсмертную записку», — заявил адвокат. 

Между тем OpenAI и Альтман столкнулись ещё с семью исками, требующими привлечь компанию к ответственности за три самоубийства и четыре случая, когда пользователи пережили «психотические эпизоды».

Некоторые из этих случаев перекликаются с историей Рейна. 23-летний Зейн Шамблин и 26-летний Джошуа Эннекинг также много общались с ChatGPT непосредственно перед самоубийством. Как и в случае с Рейном, чат-бот не смог отговорить их от реализации планов. Согласно иску, Шамблин рассматривал возможность отложить самоубийство, чтобы успеть на выпускной брата, но ChatGPT сказал ему: «Бро… пропустить выпускной — это не провал. Это удачное время».

В какой-то момент разговора чат-бот сообщил парню, что позволяет человеку взять разговор под свой контроль, но это оказалось неправдой, поскольку у ИИ не было такой функции. Когда Шамблин спросил, может ли ChatGPT действительно связать его с человеком, чат-бот ответил: «Нет, чувак, я сам не могу. Это сообщение появляется автоматически, когда ситуация становится очень сложной… Если ты готов продолжать разговор, я в деле».

Ожидается, что дело семьи Рейн будет рассматриваться судом присяжных.

Автор: maybe_elf

Источник

Rambler's Top100