- BrainTools - https://www.braintools.ru -

Модель Qwen3-VL официально стала совместима с фреймворком llama.cpp, что позволяет запускать её прямо на локальных устройствах без необходимости подключения к облаку. Теперь пользователи могут использовать Qwen3-VL на CPU, CUDA, Metal, Vulkan и других аппаратных бэкендах, делая работу с мультимодальной моделью максимально гибкой и автономной.
Доступны GGUF-веса для всех версий — от компактной 2B до флагманской 235B. Это значит, что модель можно адаптировать под любые ресурсы.
Такой шаг открывает новые возможности для офлайн-использования AI. Qwen3-VL можно применять для анализа изображений, видео, текста и других типов данных без риска утечки информации и зависимости от внешних сервисов.
Подробнее ознакомиться с релизом можно на платформах:
Hugging Face [1]
ModelScope [2]
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News [4].
Автор: cognitronn
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/21541
URLs in this post:
[1] Hugging Face: https://huggingface.co/collections/Qwen/qwen3-vl
[2] ModelScope: https://modelscope.cn/collections/Qwen3-VL-5c7a94c8cb144b
[3] Pull Request на GitHub: https://github.com/ggerganov/llama.cpp/pull/16780
[4] BotHub AI News: https://t.me/bothub
[5] Источник: https://habr.com/ru/companies/bothub/news/963416/?utm_source=habrahabr&utm_medium=rss&utm_campaign=963416
Нажмите здесь для печати.