
Исследователи Stanford University опубликовали работу, в которой анализируется, насколько безопасно использовать чат-боты для получения личных и эмоционально чувствительных советов. Главный вывод — современные ИИ-модели часто дают ответы, которые выглядят уверенно и убедительно, но при этом могут быть неточными или упрощёнными в сложных жизненных ситуациях.
В исследовании отмечается, что пользователи склонны воспринимать ответы чат-ботов как более объективные и нейтральные, чем советы от людей. Это может приводить к завышенному доверию, особенно в вопросах, связанных с отношениями, психическим состоянием или важными жизненными решениями.
Отдельно подчёркивается проблема «персонализации»: модели подстраиваются под стиль общения пользователя и могут усиливать уже существующие убеждения вместо того, чтобы их критически корректировать. В результате ИИ иногда не помогает переосмыслить ситуацию, а закрепляет исходную точку зрения.
Учёные также указывают, что чат-боты не обладают реальным жизненным опытом и не несут ответственности за последствия своих рекомендаций, поэтому их советы не могут заменять профессиональную помощь или консультации специалистов.
Работа Стэнфорда вписывается в более широкий контекст обсуждения роли ИИ в повседневной жизни: по мере того как модели становятся «дружелюбнее» и убедительнее, растёт и риск чрезмерного доверия к ним в чувствительных вопросах.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn


