LLM не понимает намерение пользователя?
На днях вышла новая статья «Beyond Context: Large Language Models Failure to Grasp Users Intent», которая задаёт новые тренды академических кликбейтных названий публикаций. По сути авторы заявляют, что модели не понимают глобального интента
Как мы прикрутили RAG для интент-классификации, или Трудности перевода на LLM-ский
И не опять, а снова — про этот ваш RAG. Многие продуктовые команды сейчас пробуют приспособить его для своих задач — и мы, команда Speech&Text в компании Домклик, не избежали этой участи. Но не (только) потому, что это модно и молодёжно — попробовать RAG‑подход нас побудила необходимость решить определённые насущные проблемы. Что же это за проблемы, как мы встраивали RAG и что из этого получилось? Если интересно узнать, то милости просим в текст :)

