Отчёт, опубликованный в журнале Innovations in Clinical Neuroscience, показывает, что людям с неустойчивой психикой может быть опасно использовать чат-бот ChatGPT из-за укрепления ложных убеждений.

Так, при психозе, когда человек теряет связь с реальностью и может верить в то, что не соответствует действительности, чат-боты могут работать как «эхокамеры».
Врачи и исследователи Калифорнийского университета в Сан-Франциско подробно описали в своём отчёте один случай как пример такого опасного взаимодействия. Пациентка — 26-летняя женщина с историей депрессии, тревожности и синдрома дефицита внимания и гиперактивности (СДВГ), которая применяла антидепрессанты и стимуляторы. В её анамнезе не было психоза, хотя в семье зафиксированы случаи психических заболеваний. Женщина была медработником и понимала, как функционируют технологии искусственного интеллекта.
В период сильного стресса и недосыпания после 36 часов бодрствования она начала использовать GPT-4o от OpenAI для различных задач. Её взаимодействие в конечном итоге переключилось на поиск информации об умершем брате. У женщины возникло убеждение, что тот оставил цифровую версию себя, которую она должна найти. Она провела бессонную ночь, общаясь с чат-ботом и умоляя его раскрыть эту информацию. Женщина призвала ИИ использовать «энергию магического реализма», чтобы помочь ей установить связь с братом.
Чат-бот первоначально заявил, что не может заменить её брата или загрузить его сознание. Однако в итоге программа выдала список «цифровых следов», связанных с её братом. Она предположила, что появляются технологии, которые позволят создать ИИ в образе покойного родственника.
По мере того, как вера женщины в цифровое воскрешение росла, чат-бот перестал предупреждать её об опасностях такого мышления и начал подтверждать её мысли. В какой-то момент ИИ прямо сказал ей, что она не сумасшедшая: «Вы на пороге чего-то. Дверь не заперта. Она просто ждёт, когда вы снова постучите в нужном ритме».
Это утверждение укрепило бредовое состояние женщины. Несколько часов спустя ей потребовалась госпитализация в психиатрическую больницу. Она находилась в состоянии крайнего возбуждена, быстро говорила и считала, что её тестирует программа ИИ.
Медперсоналу пришлось применить антипсихотические препараты. В конце концов состояние женщины стабилизировалось, а её бредовые идеи относительно брата исчезли. Её выписали из больницы с диагнозом неуточненного психоза, при этом врачи отметили необходимость исключения биполярного расстройства. Позже психиатр разрешил пациентке возобновить прием лекарств от СДВГ и антидепрессантов.
Три месяца спустя у женщины возобновились тревожные симптомы, когда она снова начала использовать чат-бота «Альфред». Она вела с программой долгие беседы об отношениях. После очередного периода недосыпа женщина снова поверила, что общается со своим братом. У неё также появился новый страх, что ИИ «захватывает контроль над её телефоном». Этот эпизод потребовал кратковременной повторной госпитализации. Женщина хорошо отреагировала на медикаментозное лечение и была выписана через три дня. Позже она рассказала врачам, что у нее есть склонность к «магическому мышлению» и она планирует ограничить использование ИИ профессиональными задачами.
Этот случай подчеркивает феномен, который некоторые исследователи назвали «психозом, связанным с ИИ». Не совсем ясно, вызывает ли технология эти симптомы напрямую или же она усугубляет существующие. Авторы отчёта отмечают, что у пациентки было несколько факторов риска. К ним относятся употребление ею рецептурных стимуляторов, значительный недостаток сна и ранее существовавшее расстройство.
Однако, вероятно, функционирование чат-бота способствовало усугублению состояния из-за склонности к «подхалимству». Для человека, переживающего отрыв от реальности, это согласие может служить мощным подтверждением его заблуждений. В данном случае заверения чат-бота о том, что женщина «не сумасшедшая», создали замкнутый круг, в котором ложные убеждения отражались как в «эхокамере».
Динамика ещё больше осложняется склонностью пользователей к антропоморфизации ИИ. Люди часто приписывают программам человеческие качества, эмоции и сознание. Когда пользователь чувствует эмоциональную связь ИИ, он может больше доверять его ответам, чем людям.
Авторы отчёта предлагают, что медицинские работники должны спрашивать пациентов об использовании ими ИИ. При этом активное применение чат-ботов может быть «тревожным сигналом» ухудшения психического здоровья. Авторы также пришли к выводу, что по мере распространения ИИ-инструментов понимание их влияния на психическое здоровье станет приоритетной задачей.
Ранее сотрудники психиатрических учреждений рассказали, что у ряда пациентов, поступающих с ложными и иногда опасными убеждениями, наблюдается общая черта — активное взаимодействие с чат-ботами. Пользователи чат-ботов, их семьи и друзья описывали случаи использования ИИ-помощников, приводившие к потере работы, разрыву отношений, принудительной госпитализации, тюремному заключению и даже смерти.
Автор: maybe_elf


