- BrainTools - https://www.braintools.ru -
Публичные бенчмарки LLM дают ориентиры по общему уровню моделей, но не отвечают на вопрос, как они ведут себя в конкретной задаче. А прикладные сценарии чувствительны к деталям: формату входных данных, структуре ответа, требованиям к точности. В этих условиях различия между моделями становятся более заметными.
Даже у близких по классу моделей небольшие различия в архитектуре и обучении [1] дают заметный разброс в качестве ответов [2].
Качество моделей сильно зависит от типа задачи [3] — одни лучше следуют инструкциям, другие лучше формулируют текст, третьи реже галлюцинируют.
Одна и та же модель может быть сильной в reasoning-задачах и значительно слабее в саммаризации или QA [4].
В этой статье расскажем, как оценивали открытые модели для создания саммари записей встреч и поделимся метриками, которые отражают полезность результата для бизнес-процессов заказчика.

Содержание
Что мы сделали [5]
Как это работает [6]
Результат [8]
Наш заказчик, компания FollowUP, создаёт сервис для автоматического протоколирования и анализа рабочих встреч. Команде разработчиков Doubletapp [9] нужно было разработать систему, которая позволяет сравнивать open-source LLM в рамках конкретной бизнес-задачи — генерации саммари.
Мы заменили универсальные бенчмарки на прикладную систему оценки, заточенную под корпоративные данные.
Полнота саммари
Для каждой транскрипции автоматически формируется набор контрольных вопросов:
какие задачи обсуждались,
какие решения были приняты,
какие договорённости зафиксированы.
Далее проверяется, насколько саммари покрывает эти вопросы.
Так мы измеряем прикладную полезность текста — можно ли из него восстанавливать содержание встречи.
Достоверность
Из саммари выделяются ключевые утверждения и сопоставляются с исходной транскрипцией.
Это позволяет:
фиксировать галлюцинации,
проверять фактическую точность,
контролировать риск искажения договорённостей.
Изначально рассматривались готовые решения оценки (включая RAGAS), но они оказались недостаточно точными в генерации вопросов именно под контекст деловых коммуникаций.
Поэтому мы разработали собственную методику — она учитывает специфику разговорных данных, лучше отражает бизнес-смысл встречи и даёт стабильную сравнимость моделей.
Под капотом — повторяемый процесс из четырёх шагов:
Берем набор транскрипций, собранных из различных открытых источников.
Прогоняем через них тестируемую модель и получаем саммари. В одной и той же системе сравниваем и локальные открытые модели (Qwen, Mistral, Llama, Gemma), и коммерческие API (GPT-5, GPT-4.1) — для нас это просто разные источники саммари.
По каждой транскрипции отдельно более сильная модель-судья (GPT-4.1 на момент работы) готовит набор контрольных вопросов и отдельно разбирает саммари на список утверждений.
Считаем по каждой модели две метрики — полноту и достоверность — и сводим в общую таблицу.
Ниже рассмотрим, как именно получить полноту и достоверность в нашей задаче.
Мы оцениваем полноту по конкретным разделам, которые важны в протоколе встречи. Проанализировав реальные запросы клиента к моделям, мы выделили четыре таких раздела:
задачи (что и кому поручено),
решения (что зафиксировано),
участники (кто был и в каких ролях),
отложенные вопросы (что вынесено за рамки встречи).
Под каждый раздел у нас свой шаблон промпта. По нему сильная LLM генерирует Yes/No-вопросы, в которых корректный ответ для качественного саммари — «Да».
Например:
Упоминается ли в саммари, что Андрей должен провести онбординг для Елены по использованию бота для рассылок?
Затем вторая LLM смотрит на саммари и отвечает по каждому вопросу: Yes / No / Partially. Recall считается как (Yes + 0.5 · Partially) / N. Частичный ответ важен — на практике саммари часто упоминает задачу, но теряет ответственного или срок, и это полезно отличать от полного пропуска.
Здесь обратная процедура. LLM-судья разбивает саммари, полученное от проверяемой модели, на список отдельных утверждений, и каждое утверждение сверяется с исходной транскрипцией: 1 — подтверждается, 0 — не подтверждается. Precision = доля подтверждённых утверждений, то есть прямое измерение доли галлюцинаций.
Пример отказа из реального прогона.
Утверждение саммари: «Предложения и рекомендации: внедрение программного обеспечения для отслеживания финансовых потоков, изучение опыта [10] других инвесторов в аналогичных проектах».
Вердикт: 0. «В расшифровке обсуждалось внедрение софта, но не упоминалось изучение опыта других инвесторов».
Что показал прогон на 432 встречах:
|
Модель |
Параметров, B |
Квантование, бит |
Recall |
Precision |
F1 |
|
GPT-4.1 |
— |
— |
0.655 |
0.966 |
0.781 |
|
Qwen2.5-72B-Instruct GPTQ-Int4 |
72 |
4 |
0.479 |
0.947 |
0.637 |
|
Mistral-Small-3.1-24B-Instruct-2503 |
24 |
16 |
0.438 |
0.894 |
0.588 |
|
Mistral-Small-3.1-24B Q8 (GGUF) |
24 |
8 |
0.429 |
0.921 |
0.585 |
|
Mistral-Small-3.1-24B Q4_K_M (GGUF) |
24 |
4 |
0.424 |
0.917 |
0.580 |
|
GPT-4o |
— |
— |
0.378 |
0.934 |
0.538 |
|
Qwen2.5-32B-Instruct GPTQ-Int8 |
32 |
8 |
0.373 |
0.899 |
0.527 |
|
Qwen2.5-32B-Instruct GPTQ-Int4 |
32 |
4 |
0.351 |
0.912 |
0.507 |
|
gemma-3-27b-it qat-q4_0 (GGUF) |
27 |
4 |
0.338 |
0.845 |
0.483 |
|
Qwen2.5-7B-Instruct GPTQ-Int4 |
7 |
4 |
0.301 |
0.836 |
0.443 |
|
Llama-3.3-70B-Instruct Q4_K_M |
70 |
4 |
0.245 |
0.874 |
0.383 |
Результаты проприетарных моделей (GPT-4.1, GPT-4o) приведены здесь для сравнения и калибровки шкалы — основная задача проекта была выбрать опенсорс-модель, которую можно развернуть у клиента в контуре.
Несколько наблюдений, которые без такой системы оценки увидеть было бы нечем:
Размер сам по себе ничего не гарантирует. Llama-3.3-70B на этой задаче проигрывает по recall даже Qwen-7B — то есть «выбрать модель пожирнее» не работает.
Квантование почти не съедает качество в семействе Mistral-Small-3.1: переход с FP16 на Q8 и далее на Q4 даёт разницу в третьем знаке. Практический вывод: 24B-модель в Q4_K_M помещается на одну консьюмерскую 4090 и при этом сохраняет precision 0.917.
Лучший открытый вариант — Qwen2.5-72B-Int4 — догоняет еще актуальную на момент исследования GPT-4o по precision (0.947 против 0.934) и заметно обгоняет по recall (0.479 против 0.378), укладываясь при этом в 2×A100 40GB.
Цифры подтверждают адекватность методики. Внутри одного семейства метрики снижаются плавно и предсказуемо при уменьшении размера и битности (Qwen 72B → 32B → 7B; Mistral Q8 → Q4). Это тот результат, который и должен получиться, если система оценки действительно измеряет качество, а не шум — то есть бенчмарку можно доверять и для сравнения моделей из разных семейств.
Вместо разового сравнения моделей бизнес получил систему, которая позволяет:
регулярно сравнивать open-source LLM между собой,
выбирать модель под конкретную задачу,
снижать риск внедрения модели с скрытыми проблемами качества,
встроить оценку качества прямо в процесс развития продукта.
В Doubletapp мы проектируем и внедряем системы оценки LLM под конкретные продуктовые сценарии заказчика.
Если вам важно понять, как модели работают именно в вашем кейсе и какие из них оптимальны с точки зрения [11] качества и инфраструктуры, давайте обсудим подход и подберем решение.
Больше кейсов — по ссылке [9].
Автор: JDTapp
Источник [12]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/29855
URLs in this post:
[1] обучении: http://www.braintools.ru/article/5125
[2] дают заметный разброс в качестве ответов: https://lmsys.org/blog/2023-05-03-arena/
[3] сильно зависит от типа задачи: https://arxiv.org/abs/2404.05904
[4] может быть сильной в reasoning-задачах и значительно слабее в саммаризации или QA: https://crfm.stanford.edu/helm/latest/
[5] Что мы сделали: https://habr.com/ru/companies/doubletapp/articles/1031668/#1
[6] Как это работает: https://habr.com/ru/companies/doubletapp/articles/1031668/#2
[7] Как это устроено технически: https://habr.com/ru/companies/doubletapp/articles/1031668/#3
[8] Результат: https://habr.com/ru/companies/doubletapp/articles/1031668/#4
[9] Doubletapp: https://doubletapp.ai/llm?utm_source=habr&utm_medium=article&utm_campaign=followup
[10] опыта: http://www.braintools.ru/article/6952
[11] зрения: http://www.braintools.ru/article/6238
[12] Источник: https://habr.com/ru/companies/doubletapp/articles/1031668/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1031668
Нажмите здесь для печати.