- BrainTools - https://www.braintools.ru -

Grok 4, Chimera и LLM от ETH Zurich: что нового в мире больших языковых моделей

Grok 4, Chimera и LLM от ETH Zurich: что нового в мире больших языковых моделей - 1

Искусственный интеллект [1] развивается стремительно, новые LLM становятся быстрее, универсальнее плюс менее требовательными к ресурсам. Среди ключевых новинок последнего времени — Grok 4 от xAI, модель Chimera от DeepSeek, а еще открытый проект от ETH Zurich и EPFL, обещающий поддержку более 1 000 языков. Эти разработки отражают три важных тренда: ускорение локальных моделей, расширение мультиязычности и стремление открытых решений догнать проприетарных лидеров. Давайте обсудим новинки и попробуем понять, куда движется индустрия.

Grok 4: амбиции xAI и новые горизонты

Источник

Компания xAI, основанная Илоном Маском, представила [3] Grok 4 в начале июля 2025 г. Модель позиционируется как значительный шаг вперед по сравнению с Grok 3, выпущенной в феврале того же года. Согласно заявлениям [4] xAI, новинка превосходит конкурентов по ряду тестов, включая AIME (математическое мышление [5]) и GPQA (научные задачи уровня PhD). Grok 4, а также его более мощная версия Grok 4 Heavy демонстрируют [4] высокую производительность на бенчмарке Humanity’s Last Exam, решая до 50% задач в многоагентном режиме.

Особенность Grok 4 — использование данных из экосистемы Маска: платформы X, Tesla и SpaceX. Это дает модели доступ к уникальным источникам информации в реальном времени, что крайне полезно для анализа текущих событий или специфических задач, имеющих отношение к авто и космосу. Например, интеграция с Tesla позволяет Grok 4 обрабатывать запросы, связанные с управлением электромобилями, хотя прямого контроля над функциями машины модель не имеет.

Еще одна отличительная черта — акцент [6] на «максимальную правдивость» (truth-seeking). xAI стремится минимизировать влияние идеологических фильтров, которые, по мнению Маска, ограничивают другие чат-боты, такие как ChatGPT или Gemini. Однако этот подход вызвал споры: вскоре после релиза Grok 4 подвергся критике за некорректные ответы, упоминания политически чувствительных тем. В ответ xAI оперативно обновила модель, добавив фильтры для блокировки подобного контента.

Grok 4 доступен через подписку SuperGrok (30 $/месяц) или SuperGrok Heavy (300 $/месяц), а также через API (3 $ за миллион входных токенов). Соответственно, модель менее доступна по сравнению с открытыми аналогами, но xAI делает ставку на уникальные функции, такие как режимы Think и Big Brain, которые улучшают качество обработки сложных запросов.

Chimera от DeepSeek: скорость и эффективность

Источник

Китайская компания DeepSeek, прославившаяся со своей моделью R1 [8], представила Chimera — новый проект. Как и в случае с другими LLM 2025 года, акцент здесь на скорости и энергоэффективности. Chimera использует архитектуру Mixture-of-Experts (MoE), где активируется только часть параметров [9] (37 млрд из 671 млрд), что позволяет сократить затраты на вычисления без потери качества. Эта модель показывает впечатляющие результаты на бенчмарках, таких как Chatbot Arena [10] (Elo 1382) и AIME (93,3%). И обходит многих конкурентов, включая Grok 4.

Chimera ориентирована на локальный запуск, что делает ее привлекательной для разработчиков с ограниченным объемом ресурсов. В отличие от Grok 4, она полностью открыта и распространяется под лицензией Apache 2.0. Именно это и дает возможность запускать модель на собственном оборудовании, избегая зависимости от облачных сервисов. DeepSeek также предоставляет API, что делает Chimera гибким решением для бизнеса.

Одно из сильных качеств Chimera [11] — высокая скорость генерации, особенно в задачах по программированию и математике [12]. В тесте на создание случайного лабиринта с помощью Python и Matplotlib она выдала аккуратный и рабочий код — быстрее и чище, чем Grok 3 в похожем сценарии.

Однако у Chimera есть ограничения: модель не поддерживает поиск в интернете, что снижает ее полезность для задач, требующих актуальной информации. DeepSeek компенсирует это, предлагая отдельный инструмент DeepSeek Search, который обеспечивает прозрачность ссылок на источники. Это делает Chimera особенно подходящей для научных и технических приложений, где важна воспроизводимость результатов.

Открытый LLM от ETH Zurich и EPFL: мультиязычность и прозрачность

Источник

Швейцарские университеты ETH Zurich и EPFL готовят [13] к выпуску в конце лета 2025 года амбициозный проект — полностью открытую языковую модель, созданную на суперкомпьютере Alps. Она поддерживает свыше 1 000 языков. Модель обучена на наборе данных на 1 500 языках (60% на английском, 40% на других). Плюс, конечно же, код и математические данные.

Проект реализуется в рамках Swiss AI Initiative при поддержке ETH Board. LLM будет доступна [13] в двух вариантах — 8 млрд и 70 млрд параметров, это сопоставимо с Llama 3. В отличие от большинства коммерческих решений, швейцарская модель полностью открыта: исходный код, веса и данные обучения [14] публикуются под лицензией Apache 2.0, что позволяет использовать ее для научных, государственных и образовательных целей.

Поддержка многих языков не единственное сильное место модели. Разработчики подчеркивают, что обучение шло с учетом швейцарского законодательства о защите данных и требований AI Act. При этом, как показало [15] исследование на arXiv, отказ от веб-скрейпинга [16] почти не сказался на качестве — модель осталась конкурентоспособной, сохранив при этом этичность подхода.

LLM ориентирована на специализированные задачи в науке [17], медицине, робототехнике и климатических исследованиях. Это отличает ее от универсальных решений, таких как Grok 4 или Chimera, и подчеркивает стремление Швейцарии к созданию социально ориентированного ИИ.

Тренды рынка: куда движется индустрия?

Развитие Grok 4, Chimera и швейцарского LLM отражает три ключевых направления в эволюции больших языковых моделей:

Локальность и энергоэффективность. Chimera от DeepSeek — пример того, что архитектуры вроде MoE позволяют запускать большие модели на локальных машинах без потерь в качестве. Это снижает зависимость от облака и делает ИИ доступнее для небольших команд и энтузиастов. Grok 4, напротив, требует мощной облачной инфраструктуры и платной подписки, что ограничивает круг пользователей.

Мультиязычность и глобальность. Проект ETH Zurich и EPFL показывает, как важно поддерживать языки, которые редко встречаются в ИИ. Это помогает сделать технологии доступнее и сохранить языковое разнообразие в интернете. Коммерческие модели вроде Grok 4 тоже начинают учитывать это, но все еще в основном работают с языками международного общения.

Открытость против закрытости. Open-source-модели вроде швейцарской LLM и Chimera становятся полноценной альтернативой закрытым системам — они гибкие, прозрачные и доступны для сообщества. В то же время проприетарные решения, такие как Grok 4, остаются востребованными там, где важна работа с уникальными/специфическими данными и высокая производительность. В 2025 году разрыв между этими подходами стал особенно заметен.

Что дальше?

Grok 4, Chimera и швейцарский LLM — лишь часть ландшафта ИИ-индустрии, который продолжает стремительно меняться. xAI делает ставку на интеграцию с собственной экосистемой и «правдивость», хотя это порождает этические вопросы. DeepSeek фокусируется на скорости и открытости, предлагая решения для локального использования. ETH Zurich и EPFL идут по пути прозрачности и мультиязычности, создавая модель для общественного блага.

Эти разработки показывают, что рынок LLM движется к диверсификации: универсальные модели сосуществуют с узкоспециализированными, а открытые проекты начинают теснить проприетарных гигантов. В ближайшие годы можно ожидать дальнейшего роста контекстных окон (как у Llama 4 Scout с 10 млн токенов), улучшения энергоэффективности и усиления внимания [18] к этическим аспектам.

За последними релизами стоит не просто технический прогресс — меняется само понимание того, каким должен быть ИИ. Одни делают ставку на скорость и локальность, другие — на доступность и открытость, третьи — на интеграцию с экосистемами. Что окажется важнее, покажет практика: как ИИ впишется в реальные задачи и чьи подходы окажутся ближе к пользователям.

Автор: Michail_Stepnov

Источник [19]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/17777

URLs in this post:

[1] интеллект: http://www.braintools.ru/article/7605

[2] Источник: https://x.ai/news/grok-4

[3] представила: https://en.wikipedia.org/wiki/Grok_(chatbot)

[4] заявлениям: https://www.datacamp.com/blog/grok-4

[5] мышление: http://www.braintools.ru/thinking

[6] акцент: https://techcrunch.com/2025/07/10/grok-4-seems-to-consult-elon-musk-to-answer-controversial-questions/

[7] Источник: https://www.youtube.com/watch?v=fEKgZ-cGDYI

[8] прославившаяся со своей моделью R1: https://habr.com/ru/companies/ru_mts/articles/879954/

[9] часть параметров: https://arxiv.org/pdf/2506.14794

[10] Chatbot Arena: https://openlm.ai/chatbot-arena/

[11] сильных качеств Chimera: https://www.analyticsvidhya.com/blog/2025/02/grok-3-vs-deepseek-r1/

[12] математике: http://www.braintools.ru/article/7620

[13] Источник: https://ethz.ch/en/news-and-events/eth-news/news/2025/07/a-language-model-built-for-the-public-good.html

[14] обучения: http://www.braintools.ru/article/5125

[15] показало: https://arxiv.org/abs/2504.06219

[16] веб-скрейпинга: https://ru.wikipedia.org/wiki/%D0%92%D0%B5%D0%B1-%D1%81%D0%BA%D1%80%D0%B5%D0%B9%D0%BF%D0%B8%D0%BD%D0%B3

[17] науке: http://www.braintools.ru/article/7634

[18] внимания: http://www.braintools.ru/article/7595

[19] Источник: https://habr.com/ru/companies/ru_mts/articles/932280/?utm_campaign=932280&utm_source=habrahabr&utm_medium=rss

www.BrainTools.ru

Rambler's Top100