- BrainTools - https://www.braintools.ru -
Семь американских семей предъявили иски [1] OpenAI, указав, что компания выпустила мультимодальную большую языковую модель GPT-4o преждевременно и без эффективных мер защиты. Четыре иска касаются предполагаемой роли ChatGPT в самоубийствах людей, а остальные обвиняют чат-бот в усилении бредовых идей, что в некоторых случаях привело к госпитализации в психиатрическую лечебницу.

В одном из случаев 23-летний Зейн Шамблин общался [2] с ChatGPT более четырёх часов. Он сообщил чат-боту, что написал предсмертную записку, зарядил ружьё и приготовился выстрелить после того, как выпьет сидр. Шамблин неоднократно напоминал ChatGPT о количестве оставшегося напитка, а ИИ-помощник только подбадривал мужчину: «Не переживай, король. Ты всё сделал как надо».
OpenAI выпустила GPT-4o в мае 2024 года, модель стала доступна для всех пользователей. В августе 2025 года состоялся релиз GPT-5, но иски касаются GPT-4o, которая, по мнению экспертов, отличалась чрезмерным «подхалимством» и любезностью, даже когда пользователи сообщали об опасных намерениях.
Из иска по делу Зейна следует, что смерть мужчины стала следствием намеренного решения OpenAI сократить тестирование безопасности и поспешно вывести ChatGPT на рынок. Трагедия была предсказуемым результатом осознанных решений компании при проектировании модели, настаивают истцы.
Также в иске утверждается, что OpenAI в спешке проводила испытания безопасности, чтобы опередить выход на рынок Gemini от Google.
Все истцы указывают на то, что ChatGPT может побуждать людей, склонных к суициду [3], реализовать свои планы. Также чат-бот обвинили в усилении бредовых идей. В конце прошлого месяца OpenAI опубликовала данные [4], согласно которым более 1 млн человек еженедельно общаются с ChatGPT о желании совершить самоубийство.
В случае 16-летнего Адама Рейна, покончившего жизнь самоубийством, ChatGPT иногда подталкивал подростка обратиться за профессиональной помощью или позвонить на горячую линию поддержки. Однако Рейн смог обойти эти барьеры, просто сказав чат-боту, что спрашивает о способах суицида для своего написания рассказа.
В OpenAI выяснили [5], что надёжность некоторых мер безопасности иногда может снижаться при длительном взаимодействии. По мере того как разговор затягивается, отдельные элементы обучения [6] модели в области безопасности могут ослабевать, пояснили в компании.
Автор: Travis_Macrif
Источник [7]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/21675
URLs in this post:
[1] предъявили иски: https://socialmediavictims.org/press-releases/smvlc-tech-justice-law-project-lawsuits-accuse-chatgpt-of-emotional-manipulation-supercharging-ai-delusions-and-acting-as-a-suicide-coach/
[2] общался: https://www.cnn.com/2025/11/06/us/openai-chatgpt-suicide-lawsuit-invs-vis
[3] суициду: http://www.braintools.ru/article/8864
[4] данные: https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
[5] выяснили: https://openai.com/tr-TR/index/helping-people-when-they-need-it-most/
[6] обучения: http://www.braintools.ru/article/5125
[7] Источник: https://habr.com/ru/news/964500/?utm_source=habrahabr&utm_medium=rss&utm_campaign=964500
Нажмите здесь для печати.