- BrainTools - https://www.braintools.ru -

Qwen3-VL теперь работает в llama.cpp

Qwen3-VL теперь работает в llama.cpp - 1

Модель Qwen3-VL официально стала совместима с фреймворком llama.cpp, что позволяет запускать её прямо на локальных устройствах без необходимости подключения к облаку. Теперь пользователи могут использовать Qwen3-VL на CPU, CUDA, Metal, Vulkan и других аппаратных бэкендах, делая работу с мультимодальной моделью максимально гибкой и автономной.

Доступны GGUF-веса для всех версий — от компактной 2B до флагманской 235B. Это значит, что модель можно адаптировать под любые ресурсы.

Такой шаг открывает новые возможности для офлайн-использования AI. Qwen3-VL можно применять для анализа изображений, видео, текста и других типов данных без риска утечки информации и зависимости от внешних сервисов.

Подробнее ознакомиться с релизом можно на платформах:

Hugging Face [1]

ModelScope [2]

Pull Request на GitHub [3]


Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News [4].

Автор: cognitronn

Источник [5]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/21541

URLs in this post:

[1] Hugging Face: https://huggingface.co/collections/Qwen/qwen3-vl

[2] ModelScope: https://modelscope.cn/collections/Qwen3-VL-5c7a94c8cb144b

[3] Pull Request на GitHub: https://github.com/ggerganov/llama.cpp/pull/16780

[4] BotHub AI News: https://t.me/bothub

[5] Источник: https://habr.com/ru/companies/bothub/news/963416/?utm_source=habrahabr&utm_medium=rss&utm_campaign=963416

www.BrainTools.ru

Rambler's Top100