Выбираем и оцениваем open-source LLM для саммаризации встреч
Публичные бенчмарки LLM дают ориентиры по общему уровню моделей, но не отвечают на вопрос, как они ведут себя в конкретной задаче. А прикладные сценарии чувствительны к деталям: формату входных данных, структуре ответа, требованиям к точности. В этих условиях различия между моделями становятся более заметными.Даже у близких по классу моделей небольшие различия в архитектуре и обучении дают заметный разброс в качестве ответов.Качество моделей сильно зависит от типа задачи

