- BrainTools - https://www.braintools.ru -

Новое исследование показывает, как языковые модели ловко имитируют понимание юмора [1], подменяя смысл статистикой, а иронию — вероятностью. Эксперты отмечают, что за внешней «остроумностью» скрывается отсутствие подлинного понимания — не только юмора, но и эмпатии, культурного контекста и человеческих нюансов. Искусственный интеллект [2] умеет находить закономерности, но не намерения. Он узнаёт структуру шутки — но не улавливает её смысл.
Комики, строящие выступления на игре слов, и авторы остроумных заголовков могут вздохнуть с облегчением — по крайней мере, пока. Новое исследование говорит о том, что искусственный интеллект всё ещё далёк от настоящего понимания юмора.
Учёные из Великобритании и Италии изучили, способны ли большие языковые модели (LLM) по-настоящему понимать каламбуры — и пришли к выводу, что нет.
Команда из Университета Кардиффа (Уэльс) и Университета Ка’ Фоскари в Венеции установила: LLM хорошо распознают структуру каламбура, но не понимают саму шутку.
Например, они тестировали фразу: “I used to be a comedian, but my life became a joke.” (Раньше я был комиком, но моя жизнь превратилась в шутку.)
Если заменить вторую часть на: “but my life became chaotic” (но моя жизнь стала хаотичной),
модели всё равно воспринимали предложение как каламбур.
Другое испытание: “Long fairy tales have a tendency to dragon.” (Длинные сказки склонны превращаться в дракона. — игра слов: dragon созвучно drag on — «затягиваться»)
Даже при замене слова dragon на prolong (затягиваться) или случайное слово, модели всё равно считали фразу игрой слов.
Профессор Хосе Камачо Кольядос [3] из школы компьютерных наук Университета Кардиффа отметил, что понимание юмора у моделей очень хрупкое.
«В целом, LLM склонны запоминать то, что они изучили в процессе обучения [4]. Они хорошо распознают существующие каламбуры, но это не означает, что они действительно понимают их», — пояснил он.
«Мы смогли последовательно обманывать модели, изменяя известные каламбуры и убирая двойной смысл. В таких случаях модели ассоциируют [5] предложение с ранее встречавшимися шутками и начинают придумывать причины, почему это каламбур. В итоге мы выяснили, что их понимание юмора — лишь иллюзия.»
Учёные заключили, что при столкновении с незнакомой игрой слов, способность моделей отличать каламбур от обычного предложения может падать до 20%.
Другой тестируемый каламбур: “Old LLMs never die, they just lose their attention.”
(Старые LLM никогда не умирают, они просто теряют внимание [6]. — игра слов с attention)
Если заменить attention на ukulele (укулеле), модели всё равно воспринимали фразу как игру слов, объясняя это тем, что ukulele якобы звучит как you-kill-LLM (вы убиваете LLM). Исследователи отметили, что это проявление креативности — но пониманием шутки это назвать нельзя.
Авторы исследования подчеркнули: эти результаты показывают, что при использовании LLM в задачах, связанных с юмором, эмпатией или культурными нюансами, следует проявлять осторожность.
Работа была представлена в начале этого месяца на Конференции по эмпирическим методам в обработке естественного языка (EMNLP 2025) в Сучжоу, Китай. Подробности изложены в статье под названием: Pun unintended: LLMs and the illusion of humor understanding [7]
Источник: The Guardian [8]
Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» [9] — мы регулярно рассказываем о новостях про AI, LLM и RAG, а также делимся полезными мастридами и актуальными событиями.
Автор: Idilara25
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/22323
URLs in this post:
[1] юмора: http://www.braintools.ru/article/3517
[2] интеллект: http://www.braintools.ru/article/7605
[3] Профессор Хосе Камачо Кольядос: https://profiles.cardiff.ac.uk/staff/camachocolladosj
[4] обучения: http://www.braintools.ru/article/5125
[5] ассоциируют: http://www.braintools.ru/article/621
[6] внимание: http://www.braintools.ru/article/7595
[7] Pun unintended: LLMs and the illusion of humor understanding : https://arxiv.org/abs/2509.12158
[8] The Guardian: https://www.theguardian.com/technology/2025/nov/24/ai-doesnt-get-puns-study-finds
[9] «Голос Технократии»: https://t.me/+vvm8PwCuv-EyZGY6
[10] Источник: https://habr.com/ru/companies/technokratos/news/969710/?utm_source=habrahabr&utm_medium=rss&utm_campaign=969710
Нажмите здесь для печати.