- BrainTools - https://www.braintools.ru -

ZAI выпустили [1]GLM-4.7 Flash, облегченную версию флагмана GLM-4.7. Это модель на 30 млрд параметров с контекстом 128K и архитектурой MoE, ориентированная на локальный запуск без серверных бюджетов уровня бигтеха.
Идея проста. Закрыть разрыв между компактными SLM и проприетарными монстрами. Flash должна дать разработчикам SOTA-уровень в кодинге и агентных сценариях, оставаясь при этом доступной для локальной инфраструктуры.
Архитектура MoE делает модель обманчиво легкой. Формально 30B, но активных параметров на токен значительно меньше. В сообществе говорят примерно о 3 млрд. Это означает, что по реальной вычислительной нагрузке она ближе к средним моделям, сохраняя при этом ширину мышления [2] старших решений.
Одна из ключевых фичей это Interleaved Thinking. В отличие от привычного подхода, где модель вываливает весь chain-of-thought в начале, здесь размышление происходит перед каждым вызовом инструмента. Для агентных систем это критично. Модель может планировать шаг за шагом, корректируя стратегию по ходу работы, а не идти по заранее зашитому сценарию.

ZAI отдельно акцентируют внимание [3] на файнтюне под эстетику и DevOps. Модель училась не просто генерировать валидный HTML и CSS, а писать код с адекватной структурой, отступами и современными паттернами. Ее подтянули под работу с CLI, навигацию по файловой системе и понимание прав доступа. Это делает ее пригодной для реальных инженерных задач, а не только для демо.
Бенчмарки выглядят впечатляюще. В SWE-bench Verified модель набирает 59.2 процента. Для сравнения, Qwen3-30B-A3B показывает 22.0, а GPT-OSS-20B около 34.0. В математическом AIME 25 результат 91.6 процента, что также выше ближайших конкурентов. На BrowseComp Flash обходит GPT-OSS-20B почти в полтора раза.
На практике это делает GLM-4.7 Flash одним из лучших кандидатов для локальных кодинг-агентов. Если есть пара видеокарт или готовность мириться с квантованием на одной, модель может стать основной рабочей лошадкой для разработки.
Отдельный плюс это лицензия MIT. Никаких ограничений на коммерческое использование и встраивание в продукты.
Делегируйте часть рутинных задач вместе с BotHub! [4] Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [5] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn
Источник [6]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/24545
URLs in this post:
[1] выпустили : https://huggingface.co/zai-org/GLM-4.7-Flash
[2] мышления: http://www.braintools.ru/thinking
[3] внимание: http://www.braintools.ru/article/7595
[4] BotHub!: https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=ELON_MUSK_PROMISED_TO_OPEN_ACCES_TO_THE_SOURCE_CODE_OF_THE_NEW_ALGORITHM_X_IN_SEVEN_DAYS
[5] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[6] Источник: https://habr.com/ru/companies/bothub/news/987276/?utm_source=habrahabr&utm_medium=rss&utm_campaign=987276
Нажмите здесь для печати.