- BrainTools - https://www.braintools.ru -

LLM модель qwen3-coder-next быстрый тест на локальном сервере

Сегодня зашел на сайт ollama, а там представили новую LLM модель qwen3-coder-next. Но при попытке ее установить вышло предупреждение что моя текущая версия 0.15.4 не будет работать с ней, нужно установить 0.15.5 которая еще только в бета тестировании. А стандартная установка ставила только 0.15.4, сначала я плюнул на это.

Но немного разобравшись, оказалось что установить бета версию не так и сложно, стандартная установка для линукс выглядит так

curl -fsSL https://ollama.com/install.sh [1] | sh

а установка бета варсии (сейчас она 0.15.5-rs2) выглядит так

curl -fsSL https://ollama.com/install.sh [1] | OLLAMA_VERSION=0.15.5-rc2 sh

Представлено 2 версии qwen3-coder-next

  1. С квантизацией q4_K_M, размер модели 52Гб.

  2. С квантизацией q8_0, размер модели 85Гб.

В видеопамяти занимают немного больше. Недостаток в том что для их запуска нужно не менее 64Гб для Q4 и 90Гб для Q8 видеопамяти. Конечно можно их запустить и в оперативной памяти [2], но думаю будет очень медленно думать. Я запускал на сервере с 96Гб видеопамяти.

Для теста кодерных моделей я почему то всегда использую тест типа игры Тетрис или Питон. В этот раз я попросил – Напиши игру питон на html+javascript , если вы считаете такие тесты неверными, то вместо минусов пишите аргументы.

Первый тест я провел на модели qwen3-coder-next:q8_0 весом 85 гигабайт. Код эта модель написала за пару минут, причем в браузере он выглядель очень неплохо и даже красиво.

Вот так в браузере была отрисована игра змейка моделью Q8, по мне так вообще и не плохо. Но простой скрин конечно не передает всю суть, по этому я представляю код этой игры на своем сервере - http://demonryb.ru/snake_q8.html

Вот так в браузере была отрисована игра змейка моделью Q8, по мне так вообще и не плохо. Но простой скрин конечно не передает всю суть, по этому я представляю код этой игры на своем сервере – http://demonryb.ru/snake_q8.html [3]

Код игры был написан буквально за минуту, может чуть больше, но сразу не заработал. Проблема была в том что змея не ела добычу, но после этого замечания нейросеть исправила ошибки [4] и все заработало. Даже память последнего лучшего результата сделала.

Далее я скачал модель с квантизацией q4_K_M и с постановкой такой же задачи, а весит она уже поменьше всего 52Гб против 85Гб предыдущей. По времени, написание кода заняло примерно столько же времени, минуту или чуть больше. Вдеопамяти модель заняла примерно 65Гб.

Но в отличии от более высокой квантизации она написала рабочий код с первого раза. Но визуально немного проще, без подсчета и запоминания [5] лучшего результата. Но факт в том что с первого раза.

Интерфейс выглядит проще, но где то в своих мозгах она выкопала прикольный смайлик змейки. Вот эта игра на моем сервере - http://demonryb.ru/snake_q4.html

Интерфейс выглядит проще, но где то в своих мозгах она выкопала прикольный смайлик змейки. Вот эта игра на моем сервере – http://demonryb.ru/snake_q4.html [6]

Я испытал много разных локальных моделей, но никто так креативно даже со второго раза не написал код игры SNAKE.

А если сказать больше то ни GPTChat ни наш Российский ГигаЧат Сбера и даже GROK Илона Маска не приблизились к таким результатам. Есть конечно Gemini, Deepseek и прочие большие модели, но и они не решают эту задачу однозначно хотябы со второго раза.

Таким образом, я моделям qwen3-coder-next от себя ставлю твердую 4+, маленький минус за то что Q8_0 модель пришлось поправлять. Но тут могу быть не прав и я, а вдруг у меня просто не хватило видеопамяти! А вот большим облачным моделям ставлю пока минус, хотя может и тут в чем то не прав, а если так то буду рад читать аргументы в комментариях.

Если у вас есть желание протестировать локальные LLM модели и у вас довольно мощный ПК, даже игровые ПК бывают очень неплохими. Но нет возможности и времени изучать Linux и (или) как запустить несколько GPU для инференса модели LLM, вот вам быстрое рабочее руководство как запустить свой собственный LLM сервер. Для того что бы не рушить систему которая у вас уже установлена, возьмите недорогой SSD диск на 512Гб хотя бы, думаю у многих такие лежат от предыдущих ПК где нибудь в закромах. Установите его в ПК и используйте вот это мое руководство – https://habr.com/ru/articles/991560/ [7]

Я не претендую на суперГуру, но по этому руководству вы за несколько часов запустите свой домашний сервер для запуска LLM.

P.S. Если остались вопросы, отвечу на них в комментариях.

Автор: softel

Источник [8]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/25204

URLs in this post:

[1] https://ollama.com/install.sh: https://ollama.com/install.sh

[2] памяти: http://www.braintools.ru/article/4140

[3] http://demonryb.ru/snake_q8.html: http://demonryb.ru/snake%5C_q8.html

[4] ошибки: http://www.braintools.ru/article/4192

[5] запоминания: http://www.braintools.ru/article/722

[6] http://demonryb.ru/snake_q4.html: http://demonryb.ru/snake%5C_q4.html

[7] https://habr.com/ru/articles/991560/: https://habr.com/ru/articles/991560/

[8] Источник: https://habr.com/ru/articles/992854/?utm_campaign=992854&utm_source=habrahabr&utm_medium=rss

www.BrainTools.ru

Rambler's Top100