- BrainTools - https://www.braintools.ru -
Компания Rednote, занимающаяся социальными сетями, выпустила свою первую большую языковую модель с открытым исходным кодом. Система Mixture-of-Experts (MoE), получившая название dots.llm1, предназначена для того, чтобы соответствовать производительности конкурирующих моделей при значительно меньшей стоимости.

Согласно техническому отчёту Rednote [1], в dots.llm1 используется 14 миллиардов активных параметров из 142 миллиардов в общей сложности. Архитектура MoE делит модель на 128 специализированных экспертных модулей, но для каждого токена активируются только шесть лучших модулей, а также два модуля, которые работают постоянно. Такой выборочный подход позволяет экономить вычислительные ресурсы без ущерба для качества.
Rednote заявляет о значительном повышении эффективности. Для обучения [2] dots.llm1 на одном триллионе токенов потребовалось всего 130 000 часов работы графического процессора по сравнению с 340 000 часами для Qwen2.5-72B. В целом, полный процесс предварительного обучения для dots.llm1 занял 1,46 миллиона часов работы графического процессора, в то время как для Qwen2.5-72B потребовалось 6,12 миллиона часов — примерно в четыре раза больше. Несмотря на это, Rednote утверждает, что модели дают схожие результаты.
Тесты показывают, что dots.llm1 особенно хорошо справляется с задачами на китайском языке. В таких тестах, как C-Eval (который измеряет уровень владения китайским языком) и CMMLU (китайский вариант MMLU), модель превосходит Qwen2.5-72B и Deepseek-V3.
По результатам тестов на английском языке dots.llm1 немного отстаёт от лидеров. По результатам MMLU и более сложного MMLU-Pro, которые проверяют общие знания и способность рассуждать, модель немного отстаёт от Qwen2.5-72B.
Что касается математики [3], то dots.llm1 показывает хорошие результаты, но обычно уступает самым большим моделям. Однако его генерация кода впечатляет: в HumanEval, стандартном тесте на программирование, dots.llm1 превосходит Qwen2.5-72B и не уступает или почти не уступает в других задачах на кодирование.
Rednote обучила модель на 11,2 триллиона высококачественных токенов, используя только реальный интернет-текст и не прибегая к синтетическим данным. Процесс обработки данных состоит из трёх этапов: подготовка документов, фильтрация на основе правил и обработка на основе модели. Выделяются два нововведения: система, которая удаляет отвлекающие элементы веб-сайтов, такие как реклама и панели навигации, и автоматическая категоризация контента.
Компания создала классификатор на 200 категорий, чтобы оптимизировать набор обучающих данных. Это позволило увеличить долю фактического и основанного на знаниях контента (например, статей из энциклопедий и научных работ), сократив при этом количество вымышленных и высокоструктурированных веб-страниц, таких как списки товаров.
Rednote публикует промежуточные контрольные точки после каждого триллиона токенов, прошедших обучение, что позволяет исследовательскому сообществу получить представление о динамике обучения больших моделей. Модели доступны на Hugging Face [4] по лицензии Apache 2.0, а исходный код — на GitHub [5].
Имея 300 миллионов пользователей в месяц, Rednote выходит на переполненный китайский рынок ИИ, возглавляемый такими компаниями, как Alibaba, Baidu, Tencent, Bytedance и Deepseek [6]. Новая модель разработана в лаборатории Rednote по изучению человеческого интеллекта [7], которая отделилась от команды ИИ компании и теперь нанимает больше исследователей с гуманитарным образованием.
Rednote уже тестирует на своей платформе исследовательского ассистента Diandian [8] на базе собственной модели ИИ.
Этой весной приложение для социальных сетей ненадолго попало в международные заголовки [9] как возможное убежище для пользователей из США во время угрозы запрета TikTok. Когда запрет был отменён, интерес за пределами Китая [10] угас.
Тем не менее, 7 июня Rednote открыла свой первый офис за пределами материкового Китая в Гонконге и планирует дальнейший международный рост. По данным Bloomberg [11], в этом году её стоимость достигла 26 миллиардов долларов, превысив пик, достигнутый во время пандемии, а IPO ожидается в 2025 году.
Пользуясь случаем, хочу порекомендовать BotHub [12]— платформу, где можно протестировать все популярные модели без ограничений. Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [13] вы можете получить 100 000 бесплатных токенов для первых задач и уже сейчас начать работать!
Источник [14]
Автор: mefdayy
Источник [15]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/16243
URLs in this post:
[1] техническому отчёту Rednote: https://github.com/rednote-hilab/dots.llm1/blob/main/dots1_tech_report.pdf
[2] обучения: http://www.braintools.ru/article/5125
[3] математики: http://www.braintools.ru/article/7620
[4] Hugging Face: https://huggingface.co/rednote-hilab
[5] GitHub: https://github.com/rednote-hilab/dots.llm1
[6] Deepseek: https://the-decoder.com/deepseek-r1-triggers-boom-in-reasoning-enabled-language-models/
[7] интеллекта: http://www.braintools.ru/article/7605
[8] Diandian: https://www.reuters.com/business/media-telecom/rednote-joins-wave-chinese-firms-releasing-open-source-ai-models-2025-06-09/
[9] международные заголовки: https://edition.cnn.com/2025/01/14/tech/rednote-china-popularity-us-tiktok-ban-intl-hnk
[10] интерес за пределами Китая: https://www.start.io/blog/new-data-as-expected-rednote-installs-plunge-after-u-s-tiktok-ban-reversed/
[11] Bloomberg: https://www.bloomberg.com/news/articles/2025-06-04/chinese-social-media-app-xiaohongshu-s-26-billion-valuation-bolsters-gsr-fund
[12] BotHub : https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=REDNOTE_LAUNCHES_ITS_FIRST_OPEN-SOURCE_LANGUAGE_MODEL_WITH_MIXTURE-OF-EXPERTS_ARCHITECTURE
[13] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[14] Источник: https://the-decoder.com/rednote-releases-its-first-open-source-llm-with-a-mixture-of-experts-architecture/
[15] Источник: https://habr.com/ru/companies/bothub/news/918654/?utm_source=habrahabr&utm_medium=rss&utm_campaign=918654
Нажмите здесь для печати.