Китайский суперкомпьютер с «мозгом макаки»: что такое Darwin Monkey, как он работает и зачем он нужен
Китайские исследователи из Чжэцзянского университета и лаборатории Zhejiang Lab (это совместный проект правительства и Alibaba Group) представили необычный суперкомпьютер. Он не похож на привычные HPC-системы, потому что его архитектура вдохновлена биологией.Система получила название Darwin Monkey («обезьяна Дарвина») или «Укун» в честь короля обезьян из китайской мифологии. Она содержит более 2 миллиардов искусственных нейронов и более 100 миллиардов синапсов, что примерно соответствует мозгу макаки.Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета
Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»
InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.Что известно о модели:Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.Поддерживает контекст до 128 K токенов.Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.
Нейро-дайджест: ключевые события мира AI за 1-ю неделю октября 2025
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Меня зовут Вандер
DeepSeek обучила LLM за 294 тыс. долларов. Как это удалось и чем этот путь отличается от OpenAI
Разработка больших языковых моделей обычно ассоциируется с астрономическими затратами. Но пример китайской компании DeepSeek показывает, что эта логика не всегда работает: их модель R1 была дообучена всего за 294 тыс. долларов США (на базовую версию ушло около 6 млн). Для сравнения, создание ChatGPT обошлось OpenAI в суммы на порядки выше.

