- BrainTools - https://www.braintools.ru -
InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.
Что известно о модели:
Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.
Поддерживает контекст до 128 K токенов.
Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».
В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.
В математических тестах AIME-2025 и Omni-Math — +5–10 % к точности.
Новая система LPO (Linguistic Policy Optimization) оптимизирует поведение [1] не по токенам, а по смысловым предложениям.


Ling-1T пытается доказать, что масштаб и эффективность не противоречат — можно обучить триллионную модель, которая рассуждает экономно и детерминировано.
Источник [2]

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь [3], чтобы быть в курсе и ничего не упустить!
Автор: python_leader
Источник [4]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20467
URLs in this post:
[1] поведение: http://www.braintools.ru/article/9372
[2] Источник: https://huggingface.co/inclusionAI/Ling-1T
[3] Подписывайтесь: https://t.me/+VmCScK9pTLthYmZi
[4] Источник: https://habr.com/ru/news/954754/?utm_source=habrahabr&utm_medium=rss&utm_campaign=954754
Нажмите здесь для печати.