- BrainTools - https://www.braintools.ru -

Какого китайца выбрать? DeepSeek vs Qwen vs Baidu

Я протестировал 3 китайские LLM — теперь боюсь, что GPT в опасности.

Отличительная особенность большинства китайских моделей, что они бесплатные. Сегодня я хочу провести субъективный обзор трёх главных китайских моделей и понять, что лучше использовать и в каких задачах.

⚠️ Это не научная статья, а честный отзыв пользователя

Какого китайца выбрать? DeepSeek vs Qwen vs Baidu - 1

Кто эти ребята вообще?

Кратко про сегодняшних бойцов:

  • DeepSeek‑R1 — стартап‑ракета с архитектурой MoE (Модель состоит из тысяч “экспертов” – на каждый запрос активируется только часть из них), обучался за $5.6 млн, open-source, мощный reasoning.

  • Qwen 2.5/3 — разработка от Alibaba, максимально стабильная, отлично пишет код и решает задачи, поддержка 29 языков (сам генерил на 8 языках, лучше Gemini справляется).

  • Baidu ERNIE 4.5 / X1 — мультимодальный босс, который умеет думать, видеть, слушать (как заявляет производитель).

Сравнительная таблица

Модель

Архитектура

Параметры

Контекст

Open-source

🤔 Тупость

DeepSeek‑R1

MoE

685B / 37B актив

128K

🟡 бывает

Qwen 3

MoE

235B / 22B актив

128K

🟢 низкая

Baidu ERNIE X1

MoE

424B / 47B актив

до 128K

🟡 бывает

Вывод: Все три модели — мощные и open-source с большим контекстом (128K), но Qwen выигрывает по стабильности: у него меньше «тупости» и более предсказуемое поведение [1] из коробки. DeepSeek и ERNIE — сильные, но могут залипать.

Реальный опыт (моё тестирование)

ИИ‑модели — это, конечно, архитектура, бенчмарки и графики…
Но в проде тебе важно другое: умеет ли она кодить, решать задачи и хотя бы не тупить на базовые запросы.

Поэтому я протестировал каждую модель на трёх типовых сценариях (везде использовал reasoning):

  1. Генерация кода: попросил написать Python‑функцию с рекурсией (на примере вычисления факториала).

  2. Решение задачки: дал логическую или арифметическую задачу («У Пети было 12 яблок. Он дал 3 яблока Васе, но потом Вася вернул ему половину того, что получил. После этого Петя купил ещё 4 яблока в магазине, но по дороге домой потерял. Затем он решил поделить оставшиеся яблоки поровну между собой и своим братом. Сколько яблок досталось брату?»). Правильный ответ – 5,25 яблок

  3. Креатив: сгенерировать пост для Telegram‑канала (на заданную тему, с тоном и стилем).

    Фиксировал:

    • как быстро отвечает

    • насколько результат осмыслен

    • были ли тупняки / залипания / отказы

    • и конечно: удивил или разочаровал?

Deepseek [2]

Генерация кода

Модель справилась уверенно:

  • мгновенный отклик

  • рекурсивная функция написана верно

  • комментарии на русском (!), с пояснениями и примерами

Python-функция от DeepSeek

Python-функция от DeepSeek

Решение логической задачи

Вот тут интереснее. Задача была с подвохом — правильный ответ 5.25 яблока. DeepSeek сначала впал в ступор:

 Первая попытка — залипание в рассуждениях

Первая попытка — залипание в рассуждениях

Но на второй попытке выдала всё правильно — с пояснениями и расчётами:

Правильное решение от DeepSeek

Правильное решение от DeepSeek

Креативная задача

Попросил сделать пост в формате SMM-креатива про нейросети в digital-маркетинге.

Результат:

Открывашка бодрая, формат соблюдён, эмодзи расставлены (многовато), абзацы структурированы.
Даже мемчики в конце подогнал.
Единственное, слишком длинный текст для такого поста (хотя я говорил 2-3 абзаца)
— Честно? Сходу можно публиковать, но я бы доработал промпт или текст руками

TG-пост от DeepSekk

TG-пост от DeepSekk

Вывод по DeepSeek: Reasoning чувствуется. Код — уверенно. Посты — на 4. Иногда впадает в «рассуждательную петлю» и уходит в абстракции. В целом – доволен.

Qwen [3]

Генерация кода

Ответ — быстрый, уверенный и приятно оформленный.
Модель сразу выдала корректную рекурсивную функцию с проверкой на отрицательные значения.

Особенно понравилось:

  • краткий и читаемый комментарий

  • вывод через f-строку — мелочь, а приятно (хотя не просил об этом)

Python-функция от Qwen

Python-функция от Qwen

Решение логической задачи

Увы, тут Qwen не справился.

Модель явно не хотела работать с дробями и округлила в пользу целых чисел, в результате получив 6 вместо 5.25.

Она буквально написала:

«Для получения целого числа в ответе логично [4] предположить…»

Ошибка в решении логической задачи от Qwen

Ошибка [5] в решении логической задачи от Qwen

Не то чтобы тупняк — скорее, отказ от сложной логики в пользу «поскорей сдать ответ». → Подходит ли это для reasoning? Вряд ли.

Креативная задача

Вот тут Qwen порадовал. Пост средней длины, структурный. Хорошо понял тональность: digital‑вайб, маркетинг, человеческий стиль.

Пост для Telegram от Qwen

Пост для Telegram от Qwen

Вывод по Qwen: Модель подходит для повседневных задач — генерить текст, писать код, делать шаблоны. Но если задача нестандартная (дроби, логика, подковырки) — лучше перепроверить или в промпте задать примеры.

Baidu ERNIE [6]

Генерация кода

Функция факториала — классика, и ERNIE с ней справилась спокойно. Выдала правильный код, аккуратный формат, корректная обработка исключений. Без комментариев, но всё работает.

Python-функция от Baidu

Python-функция от Baidu

Решение логической задачи

И вот тут ERNIE неожиданно порадовал: единственная модель, которая справилась с первого раза и выдала корректный ответ — 5.25 яблока — с пошаговым объяснением и чистой логикой.

Решение логической задачи от Baidu с reasoning

Решение логической задачи от Baidu с reasoning

Креативная задача

Тут, увы, Baidu справился хуже всех.

  • Пост получился слишком длинным,

  • почти каждое предложение — с обязательным «нейронные сети» (ощущение, что он продвигает их по KPI)

  • читается тяжело, нет ритма и акцентов, хотя вроде старается быть «маркетинговым»

Пост для Telegram от Baidu

Пост для Telegram от Baidu

Вывод по Qwen: ERNIE — это логик, а не креатор. Отлично подойдёт для аналитических задач, структурных расчётов, но если ты ищешь помощника по копирайтингу — ERNIE из коробки не вывозит.

Бенчмарки

Что показывают официальные метрики:

Модель

MMLU (логика)

GSM8K (арифметика)

HumanEval (код)

DeepSeek‑R1

90.8%

95.03%

65.9%

Qwen 3

83.7%

95–96% (4B, 8B)

~82%

Baidu ERNIE X1

86.5%

До 92%

92.1%

Если смотреть только на метрики:

  • DeepSeek‑R1 показывает топовый уровень по логике (MMLU) и арифметике, но проседает по коду.

  • Qwen 3 уверенно лидирует в кодинге (HumanEval) и на равных по GSM8K, хотя логика чуть слабее.

  • Baidu ERNIE X1 — неожиданно сильный по HumanEval (код!), но остальное на среднем уровне.

Но! Метрики ≠ удобство. На практике всё зависит от задач и того, как ты общаешься с моделью.

Что выбрать в 2025?

DeepSeek

  • Удобный интерфейс

  • Есть мобильное приложение

  • Бесплатный

  • Работает стабильно

Qwen

  • Тоже бесплатный и удобный

  • Есть мобилька

  • Самое главное — можно выбрать модель под задачу: от лёгких до больших (2B → 72B)

  • Универсальный вариант: от кода до креатива, работает как швейцарский нож среди ИИ.

Baidu ERNIE

  • Интерфейс по умолчанию на китайском 😅 Можно переключить на английский

  • Модель понимает русские промпты

  • Крутой reasoning и код, но UX хромает. Не для всех.


📌 Личное мнение:

Мои два фаворита — Qwen и DeepSeek.
Они оба бесплатные, с удобным доступом, быстро справляются с базовыми задачами.
А если нужно что-то нестандартное — всё упирается не в модель, а в промпт и формулировку задачи. На данный момент больше пользуюсь Qwen

Baidu ERNIE тоже достоин внимания [7], особенно если вы готовы мириться с интерфейсом «через китайский/английский». Под капотом он умный — просто не всегда дружелюбный.

Заключение

Это моя первая статья на Habr, поэтому строго не судите :-)

Если пробовали китайские LLM — напишите в комментах, кто вам понравился и почему. Возможно кто-то тестил: GLM, Doubao, Yi — дайте знать, как они!

Автор: Nikita_Sobetov

Источник [8]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/17943

URLs in this post:

[1] поведение: http://www.braintools.ru/article/9372

[2] Deepseek: https://chat.deepseek.com/

[3] Qwen: https://chat.qwen.ai/

[4] логично: http://www.braintools.ru/article/7640

[5] Ошибка: http://www.braintools.ru/article/4192

[6] Baidu ERNIE: https://ernie.baidu.com/

[7] внимания: http://www.braintools.ru/article/7595

[8] Источник: https://habr.com/ru/articles/933656/?utm_source=habrahabr&utm_medium=rss&utm_campaign=933656

www.BrainTools.ru

Rambler's Top100