- BrainTools - https://www.braintools.ru -

Китайская компания MiniMax представила модель M2.5, построенную на архитектуре MoE. У нее 10 млрд активных параметров при 229 млрд общих, что позволяет держать вычислительную нагрузку относительно умеренной, сохраняя масштаб и гибкость.
По заявлению разработчиков, модель обучалась в сотнях тысяч сложных сред и способна самостоятельно планировать действия без явных пошаговых инструкций. Акцент сделан на агентных сценариях, веб-поиске и офисных задачах. В ряде тестов по кодингу M2.5, как утверждается, обходит Claude Opus 4.6.
В бенчмарках компания заявляет превосходство над GPT-5.2, Gemini 3 Pro и Claude в веб-поиске и агентных задачах. Эти цифры пока стоит воспринимать осторожно до независимых проверок, но амбиция понятна – M2.5 позиционируют как универсальную агентную модель, а не просто чат-LLM.
Отдельно выделяется экономическая модель. Закрытая версия M2.5-Lightning генерирует до 100 токенов в секунду, что, по словам компании, примерно вдвое быстрее топовых аналогов. Час непрерывной работы оценивается в 1 доллар, а четыре инстанса можно запускать параллельно круглый год примерно за 10 тысяч долларов.
Важно и лицензирование. Веса M2.5 опубликованы [1] под лицензией MIT, что делает модель потенциально интересной для разработчиков, которым важна гибкость и отсутствие жестких ограничений. API и тарифы доступны на платформе MiniMax.
Если заявленные показатели подтвердятся, M2.5 может стать заметным игроком в сегменте быстрых и относительно дешевых агентных моделей, особенно для задач, где важны скорость отклика и масштабирование.
Делегируйте часть рутинных задач вместе с BotHub! [2] Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [3] вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Источник [4]
Автор: cognitronn
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/25665
URLs in this post:
[1] опубликованы: https://huggingface.co/MiniMaxAI/MiniMax-M2.5
[2] BotHub!: https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=RELEASE_OPENAI_GPT-5_3-CODEX_25_PERCENT_FASTER_NEW_ACHIEVEMENTS_ON_SWE-BENCH_PRO_AND_TERMINAL-BENCH
[3] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[4] Источник: https://www.minimax.io/news/minimax-m25
[5] Источник: https://habr.com/ru/companies/bothub/news/996504/?utm_source=habrahabr&utm_medium=rss&utm_campaign=996504
Нажмите здесь для печати.