qwen3.

Большой бенчмарк: ROCm vs Vulkan в LM Studio 0.4 и добавление параллельных запросов

Вступление

продолжить чтение

Голоса в голове делают ответы ИИ лучше — исследование Google

Исследователи из Google и Чикагского университета выяснили

продолжить чтение

Китайский ИИ научился учить себя сам. Его разработчики называют это путем к сверхинтеллекту

Весной исследователи из Университета Цинхуа, Пекинского института общего искусственного интеллекта и Пенсильванского университета представили Absolute Zero Reasoner — систему, в которой языковая модель сама генерирует себе задачи, решает их и учится на результатах. Модели Qwen на 7 и 14 млрд параметров после такого обучения превзошли аналоги, натренированные на отобранных людьми датасетах. Как рассказывает Wired, теперь подход подхватывают крупные компании.

продолжить чтение

Выбор LLM и фреймворка для ИИ-агентов

продолжить чтение

Разбираем три новых Qwen: нейросеть в роли диктора, художника и писателя

Привет! Я Антон, инженер по информационной безопасности в Selectel

продолжить чтение

Fine-tune Qwen3 за написание позитивных отзывов о ресторанах

Генератор отзывов о ресторане:Собрано около шестнадцати тысяч положительных отзывов от ресторанов с оценкой выше 4,7 (из 5), расположенных в Москве. Подробнее на .Использованная модель — Qwen3-4B (версия Qwen3, поддерживающая русский язык). Для обучения модели в течение двух эпох использовалась библиотека Unsloth с LoRA (Low-Rank Adaptation — метод тонкой настройки больших языковых моделей). В результате был выбран LoRA 32-го ранга, и обучено 66 миллионов параметров. Теперь модель способна генерировать качественные новые обзоры.

продолжить чтение

Vera — ваш личный десктопный агент

В прошлой статье я описывал свой эксперимент по возможностям маленьких LLM. Эта статья идет как продолжение, в которой я расскажу о проделанной работе по изменению и улучшению функционала голосового агента. И поверьте, мне есть что рассказать.Когда я задумывал своего агента, меня дико раздражали три вещи в существующих решениях:"Дай денег": Либо плати подписку за ChatGPT Plus, либо привязывай свою карту к API OpenAI/Anthropic/Perplexity."Дай данные":

продолжить чтение

Применение локальных LLM для OCR

Вдруг кому-то будет полезно. Возникла задача быстрого распознавания данных с фотографий и получения из них структурированной информации. Так же важно было отсутствие требовательного к ресурсам ПО и легкость разворачивания системы. Поэтому было решено попробовать использовать в качестве подключаемого модуля мультимодальные LLM запускаемые под Ollama, т.к. у неё есть REST API по которому удобно обращаться к модели.В последних версиях Ollama появился графический интерфейс, но он неудобен. Модели в ollama проще всего загрузить из командной строки. Например: ollama pull codellama.

продолжить чтение

Qwen3Guard: следующий шаг в модерации и контроле контента

продолжить чтение

Современные OCR для сложных документов: сравниваем 6 open-source моделей на реальном кошмаре инженера

Привет, Хабр! Каждый, кто хоть раз пытался вытащить данные из скана акта или старого отчета, знает эту боль. Классические OCR-инструменты, вроде старого доброго Apache Tika, отлично справляются с простым печатным текстом, но пасуют перед реальными вызовами: таблицами со сложной вёрсткой, рукописными пометками, мелким курсивом и разными шрифтами в одном документе.Чтобы не быть голословными, давайте посмотрим на типичный «сложный» документ и что с ним делает Tika.

продолжить чтение

123
Rambler's Top100