Китайцы снова сделали это: MiniMax-M2 — новая SOTA в опенсорсе для кодинга. ai модель.. ai модель. MiniMaxM2.. ai модель. MiniMaxM2. moe.. ai модель. MiniMaxM2. moe. Natural Language Processing.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь. искусственный интеллект.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь. искусственный интеллект. китай.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь. искусственный интеллект. китай. кодинг.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь. искусственный интеллект. китай. кодинг. Машинное обучение.. ai модель. MiniMaxM2. moe. Natural Language Processing. sota. агенты. бесплатный. Будущее здесь. искусственный интеллект. китай. кодинг. Машинное обучение. Программирование.

Внезапно, но факт: свежая MiniMax-M2 от китайской команды MiniMaxAI догнала Grok 4 Fast и Gemini 2.5 Pro. MoE-модель с всего 10B активных параметров обошла многих топ-игроков — от Claude до Gemini и GLM.

Китайцы снова сделали это: MiniMax-M2 — новая SOTA в опенсорсе для кодинга - 1

MiniMax-M2 — это компактная, но безумно мощная система, созданная специально для кода и агентов.

Coding & Agentic Benchmarks

Coding & Agentic Benchmarks

Что умеет MiniMax-M2:

  • Интеллект: #1 среди open-source моделей по метрике Artificial Analysis Intelligence — обходит даже DeepSeek и Kimi.

  • Кодинг: Лучшие результаты в SWE-Bench, Terminal-Bench и ArtifactsBench — превосходит Claude 4 и Gemini 2.5 Pro.

  • Агентность: В BrowseComp-тестах M2 находит скрытые источники, планирует цепочки действий и хорошо разбирается в ошибках.

  • Эффективность: Всего 10B активных параметров → низкие задержки, высокая пропускная способность и дёшево в проде.

Intelligence Benchmarks
Intelligence Benchmarks

В сравнении с топовыми гигантскими моделями:

  • SWE-Bench Verified: 69.4 против 63.8 у Gemini 2.5 Pro

  • Terminal-Bench: 46.3 против 36.4 у Claude 4

  • BrowseComp: 44 против 19.6 у Claude 4.5

  • GAIA (text only): 75.7 против 60.2 у Gemini

Да, GPT-5 всё ещё впереди — но MiniMax-M2 догоняет, оставаясь open source.

Источник

Русскоязычное сообщество про AI в разработке

Китайцы снова сделали это: MiniMax-M2 — новая SOTA в опенсорсе для кодинга - 4

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!

Автор: python_leader

Источник

Rambler's Top100