Исследование показало, что просьбы к чат-ботам давать короткие ответы могут усилить галлюцинации
Оказывается, если приказать чат-боту с искусственным интеллектом быть кратким, у него может возникнуть больше галлюцинаций, чем обычно. Об этом говорится в новом исследовании Giskard, парижской компании по тестированию AI, которая разрабатывает целостный бенчмарк для моделей AI. В сообщении в блоге, в котором подробно излагаются их выводы, исследователи из Giskard говорят, что подсказки для более коротких ответов на вопросы, особенно на вопросы по неоднозначным темам, могут негативно повлиять на фактологичность модели AI.