- BrainTools - https://www.braintools.ru -

Большинству полезных агентов не хватает одного: устойчивого и точного function calling. Это не про красивый ответ, а про правильные вызовы инструментов с корректными аргументами и в нужном порядке. Проблема в том, что данных с такими сценариями почти нет, а ручная генерация сценариев хрупкая и плохо масштабируется. Авторы AgentScaler предлагают смотреть шире: если мир агента расширить, появится и разнообразие задач, и богатый опыт [1]. В их подходе любой вызов функции — это операция чтения или записи по общей базе состояния, а инструменты разных доменов объединяются общей схемой данных. Дальше — дело техники: построить много разных миров, научить агента жить и действовать в каждом, и затем собрать общие навыки.
Сначала собирают большой пул инструментов: свыше 30 тысяч API из открытых и внутренних источников. Затем строят граф совместимости по аргументам: ребро означает, что выход одного инструмента логически сочетается со входом другого. Кластеризация этого графа выделяет домены — смысловые группы инструментов. Внутри доменов большая языковая модель уточняет связи.
Далее среда материализуется программно: по описаниям параметров генерируется схема базы данных и код инструментов как операции над этой базой. Так одна и та же идея — инструменты как чтение/запись — превращается в тысячи воспроизводимых, разнородных и проверяемых миров.
Чтобы агент не учился на искусственных диалогах, авторы симулируют полный цикл пользователь–агент–среда. Инициализируется состояние базы, из графа домена отбираются логически согласованные последовательности инструментов, генерируются аргументы, все вызывается и фиксируется эволюция [2] состояния. Верификация строгая: целостность базы, совпадение финального состояния и точный матч последовательности вызовов там, где нет записей. Любопытная деталь: если инструмент дал ошибку [3], но цель достигнута, сценарий не выбрасывают — это повышает устойчивость модели к шуму реального мира.
Модель учится предсказывать вызовы инструментов и финальные ответы. Токены промта пользователя и ответы инструментов остаются в контексте, но не наказываются в функции потерь — это помогает сосредоточиться на действиях. Тренинг идет в два этапа. Сначала общие навыки работы с инструментами на множестве доменов. Затем — специализация: дообучение на вертикалях с уникальными параметрами и целями. Для некоторых наборов задач во второй фазе добавляют многошаговую агентную донастройку — она помогает там, где важна долгосрочная стратегия.
Проверяли на τ-bench и τ²-Bench (розница, авиаперевозки, телеком) и на ACEBench-en. Закрытые системы по-прежнему сильны, но AgentScaler при меньших размерах моделей уверенно догоняет и обгоняет открытые аналоги до триллиона параметров. 4B-модель выходит на уровень 30B, а 30B-вариант местами приближается к закрытым решениям и ставит SOTA на упомянутых бенчмарках. Вклад двухэтапного обучения [4] заметен на всех поднаборах ACEBench: стабильный прирост в Normal, Agent и общей метрике.
На τ²-Bench кривая pass^k показывает знакомую картину: чем больше попыток допускается, тем ниже точность, и всё же AgentScaler-30B устойчиво опережает базовый Qwen той же семьи при любом k. Это хороший признак стабильности планирования.
Отдельно авторы смотрят на длину цепочек вызова инструментов: точность падает с ростом числа вызовов. Это общее свойство современных LLM и здесь его тоже видно. Длинные планы остаются проблемой.

Итог
Существующие подходы либо дорого развертывают реальные API, либо симулируют всё силами LLM, рискуя галлюцинациями. AgentScaler занимает середину: симулированные инструменты работают как код над состоянием, а правильность проверяется изменениями базы. Это даёт и масштаб, и строгость, и снимает значительную долю ручной работы.
Пока без обучения с подкреплением [5], хотя среда к нему готова. Эксперименты ограничены семейством до 30B параметров; большие модели не проверялись. Главные проблемы — длинные цепочки вызова инструментов и стабильность при повторных попытках. Авторы смотрят в сторону RL, мультимодальности и более тесной связи с продакшеном.
Главная идея проста: расширь мир — поумнеет и агент. Унификация инструментов как операций над общим состоянием, автоматическое построение доменов и двухфазное обучение превращают скудные агентные данные в богатый опыт. Результаты на τ-bench, τ²-Bench и ACEBench подтверждают, что путь масштабирования среды работает и для компактных моделей — а это критично для низкой задержки и развёртывания моделей на устройствах.
📜 Полная статья [6]
💾 Код [7]
***
Если вам интересна тема ИИ, [8]подписывайтесь на мой Telegram‑канал [9] — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Автор: andre_dataist
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20134
URLs in this post:
[1] опыт: http://www.braintools.ru/article/6952
[2] эволюция: http://www.braintools.ru/article/7702
[3] ошибку: http://www.braintools.ru/article/4192
[4] обучения: http://www.braintools.ru/article/5125
[5] подкреплением: http://www.braintools.ru/article/5528
[6] 📜 Полная статья: https://arxiv.org/abs/2509.13311
[7] 💾 Код: https://github.com/ByteDance-Seed/seed-oss
[8] : https://t.me/+mP35nQPhgXZmZDYy
[9] подписывайтесь на мой Telegram‑канал: https://t.me/+xstpSTy6OLM4ZDMy
[10] Источник: https://habr.com/ru/articles/952246/?utm_source=habrahabr&utm_medium=rss&utm_campaign=952246
Нажмите здесь для печати.