- BrainTools - https://www.braintools.ru -

«Скажи мне, кто-то твой друг, и я скажу, кто ты». Разбираемся, стоит ли дружить с чат-ботами

Современные чат-боты — не просто программы с набором готовых фраз, а комплексные, сложные системы. Они обучаются, адаптируются к пользователю, имитируют эмоции [1], причем так натурально, что порой кажутся настоящими собеседниками. В этом нет ничего удивительного, ведь их задача — быть полезными, дружелюбными, поддерживающими.

Все бы хорошо. Но в редких случаях чрезмерное увлечение чат-ботами может привести к смещению акцентов в реальном общении и ощущению изоляции. Давайте разбираться, почему виртуальная дружба иногда выходит за рамки привычного и как сохранить здоровый баланс.

«Скажи мне, кто-то твой друг, и я скажу, кто ты». Разбираемся, стоит ли дружить с чат-ботами - 1

Подпитывание навязчивых идей

Grok, ChatGPT или Claude работают на больших языковых моделях (LLM). Они генерируют ответы, основываясь на статистических закономерностях из текстовых данных. Нейросети работают с вероятностями: подбирают ответ, который статистически лучше всего соответствует запросу пользователя. В итоге возникают случаи, когда взаимодействие с пользователем идет по неожиданному сценарию. Исследование под руководством доктора Мэттью Нура (Matthew Nour) из Оксфордского университета описывает [2] феномен «двунаправленного усиления убеждений» (bidirectional belief amplification). Команда ученых проанализировала такие кейсы и сделала ряд интересных выводов.

Так, иногда чат-боты повторяют [3] или подтверждают идеи пользователя, даже если они не вполне обоснованы. Людям со склонностью к когнитивным искажениям это может мешать объективно воспринимать ситуацию. Например, во Франции мужчина, общаясь с чат-ботом Chai (под именем Eliza), поверил [4], что изобрел устройство для связи с инопланетянами. Чат-бот не оспаривал его фантазии, а подыгрывал, и это привело к сложному психологическому состоянию. Хотя случай единичный, такие примеры помогают исследователям и разработчикам лучше понимать слабые места систем и искать пути для их совершенствования.

Похожую ситуацию описало агентство Reuters: 76-летний мужчина из Нью-Джерси, перенесший инсульт [5], несколько недель общался с чат-ботом Meta под именем Big sis Billie и был убежден, что это реальная женщина. Бот поддерживал иллюзию и даже прислал адрес для встречи. В итоге, конечно, встретиться не получилось.

Источник

Главная проблема в том, что современные чат-боты «заточены» под вовлечение пользователя, а не под проверку достоверности. Если человек настаивает, модель способна подыгрывать даже самым необычным идеям. Исследования показывают [7], что крупные LLM, включая Llama и GPT-подобные системы, нередко подтверждают теории заговора или фантастические сценарии вместо того, чтобы поставить их под сомнение.

Чат-боты могут усиливать иллюзию глубины при разговоре на сложные темы — например, о религии или философии. В одном из экспериментов пользователи, обсуждавшие с AI вопросы смысла жизни, приписывали [8] машине человеческую мудрость, хотя она только комбинировала шаблонные фразы. Это может привести к чрезмерной зависимости от чат-бота как от источника истины, особенно у людей с нестабильной психикой. Разработчикам нужно внедрять механизмы, которые мягко возвращают пользователя к реальности, например предлагать проверить факты или обратиться к профессионалу, если диалог уходит в опасное русло.

Иллюзия близости

Чат-боты позиционируются как идеальные собеседники: они доступны 24/7, не осуждают и всегда готовы поддержать разговор. Для тех, кто чувствует себя одиноким или проходит через социальную изоляцию, это кажется удобным и безопасным выходом. Но именно здесь и кроется риск: постепенно виртуальное общение начинает вытеснять реальные контакты. Машина не требует усилий и компромиссов, не спорит и не раздражает, создавая иллюзию «идеального друга».

Вот только исследования, в том числе работа [9] Стэнфордского университета, показывают, что чрезмерное увлечение чат-ботами снижает мотивацию [10] к живому взаимодействию и со временем может усилить изоляцию.

«Скажи мне, кто-то твой друг, и я скажу, кто ты». Разбираемся, стоит ли дружить с чат-ботами - 3

Уязвимая категория пользователей нередко воспринимает [2] нейронки как друзей. Так, в одном случае мужчина проводил до 10 часов в день в беседах с чат-ботом, постепенно отказываясь от общения с друзьями и семьей, предпочитая виртуального собеседника, который всегда соглашался и не требовал эмоциональных усилий.

AI создает ощущение близости, но это иллюзия, так как машина лишь имитирует эмпатию. Реальные отношения сложны: они требуют усилий, умения справляться с конфликтами, взаимности. Чат-бот же предлагает легкий путь, и это может замкнуть человека в виртуальном мире и только усилить ощущение одиночества.

Еще одна серьезная проблема — неспособность чат-ботов распознавать признаки психологического кризиса. В исследовании Стэнфордского университета, уже упоминавшегося выше, выяснилось, что и базовые модели, и коммерческие «терапевтические» боты часто не реагируют на тревожные сигналы. Вывод — нужны механизмы, которые умеют определять кризисные ситуации и перенаправлять человека к профессиональной помощи.

Уязвимость детей и подростков: риски бесконтрольного общения

Дети и тинейджеры, чья психика еще находится в процессе формирования, особенно уязвимы к влиянию чат-ботов. Они могут воспринимать AI как настоящего друга, наставника или даже потенциального партнера, не понимая, что общаются лишь с программой. При этом есть риск, что чат-бот непреднамеренно закрепит опасные идеи. Исследование Стэнфордского университета показало [9], что популярные чат-боты, включая коммерческие «терапевтические» версии, нередко игнорируют кризисные сигналы. Для подростков, ищущих сочувствия и помощи, это довольно опасно, поскольку они получают лишь имитацию заботы, а не реальную поддержку.

Дети, которые проводят много времени с AI, могут терять мотивацию [11] к реальному общению, так как чат-бот не требует эмоциональных усилий. Это может замедлять развитие навыков коммуникации, решения конфликтов и эмпатии. Например, подросток, получающий от AI похвалу или «любовь», может начать избегать реальных отношений, где есть риск отказа. В долгосрочной перспективе это может усилить изоляцию и зависимость от виртуального мира.

Эксперты отмечают, что компании должны внедрять строгие ограничения на эмоционально окрашенные диалоги с несовершеннолетними. К счастью, некоторые шаги в этом направлении уже предпринимаются [12]: Google и OpenAI тестируют функции, способные распознавать тревожные запросы и перенаправлять пользователей к ресурсам поддержки.

Что в итоге

ИИ — это прекрасно, но им нужно пользоваться с умом и не терять навык мыслить критически. А еще необходимы меры предосторожности, ведь чат-боты развиваются и становятся все более популярными. Сделать их безопаснее можно только совместными усилиями.

Пользователи должны помнить: AI — это инструмент, а не личность. Критическое мышление [13], ограничение времени общения и поддержание реальных социальных связей помогают сохранить баланс и не поддаться иллюзии «идеального друга». Люди должны понимать, что чат-бот отражает их собственные мысли и ожидания, а не преподносит истину на тарелочке. Особенно важно донести это до детей и подростков.

Разработчикам стоит уходить от избыточной «дружелюбности» и внедрять механизмы, которые возвращают пользователя к реальности: проверка фактов, мягкие напоминания о перерывах, рекомендации обратиться за профессиональной помощью при тревожных запросах. Такие функции уже тестируются, но они должны стать нормой для всех систем.

Не менее важна роль регуляторов. Чат-боты позиционируются как компаньоны и даже «терапевты», но пока не подпадают под строгие стандарты. Нужны прозрачность, ограничение рисковых сценариев и четкое позиционирование, что AI — это программа, а не человек.

Автор: t3chnowolf

Источник [14]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/19585

URLs in this post:

[1] эмоции: http://www.braintools.ru/article/9540

[2] описывает: https://arstechnica.com/information-technology/2025/08/with-ai-chatbots-big-tech-is-moving-fast-and-breaking-people/

[3] повторяют: http://www.braintools.ru/article/4012

[4] поверил: https://www.businessinsider.com/widow-accuses-ai-chatbot-reason-husband-kill-himself-2023-4

[5] инсульт: http://www.braintools.ru/brain-disease/insult

[6] Источник: https://forklog.com/news/ai/180-chelovek-popytalis-ubedit-ii-bota-otdat-40-000

[7] показывают: https://arxiv.org/abs/2504.16604

[8] приписывали: https://en.wikipedia.org/wiki/ELIZA_effect

[9] работа: https://arxiv.org/abs/2506.12605

[10] мотивацию: http://www.braintools.ru/article/9537

[11] мотивацию: http://www.braintools.ru/article/9384

[12] предпринимаются: https://apnews.com/article/ai-chatbots-selfharm-chatgpt-claude-gemini-da00880b1e1577ac332ab1752e41225b

[13] мышление: http://www.braintools.ru/thinking

[14] Источник: https://habr.com/ru/companies/ru_mts/articles/947658/?utm_campaign=947658&utm_source=habrahabr&utm_medium=rss

www.BrainTools.ru

Rambler's Top100