Голоса в голове делают ответы ИИ лучше — исследование Google
Исследователи из Google и Чикагского университета выяснили
Китайский ИИ научился учить себя сам. Его разработчики называют это путем к сверхинтеллекту
Весной исследователи из Университета Цинхуа, Пекинского института общего искусственного интеллекта и Пенсильванского университета представили Absolute Zero Reasoner — систему, в которой языковая модель сама генерирует себе задачи, решает их и учится на результатах. Модели Qwen на 7 и 14 млрд параметров после такого обучения превзошли аналоги, натренированные на отобранных людьми датасетах. Как рассказывает Wired, теперь подход подхватывают крупные компании.
Разбираем три новых Qwen: нейросеть в роли диктора, художника и писателя
Привет! Я Антон, инженер по информационной безопасности в Selectel
Fine-tune Qwen3 за написание позитивных отзывов о ресторанах
Генератор отзывов о ресторане:Собрано около шестнадцати тысяч положительных отзывов от ресторанов с оценкой выше 4,7 (из 5), расположенных в Москве. Подробнее на .Использованная модель — Qwen3-4B (версия Qwen3, поддерживающая русский язык). Для обучения модели в течение двух эпох использовалась библиотека Unsloth с LoRA (Low-Rank Adaptation — метод тонкой настройки больших языковых моделей). В результате был выбран LoRA 32-го ранга, и обучено 66 миллионов параметров. Теперь модель способна генерировать качественные новые обзоры.
Vera — ваш личный десктопный агент
В прошлой статье я описывал свой эксперимент по возможностям маленьких LLM. Эта статья идет как продолжение, в которой я расскажу о проделанной работе по изменению и улучшению функционала голосового агента. И поверьте, мне есть что рассказать.Когда я задумывал своего агента, меня дико раздражали три вещи в существующих решениях:"Дай денег": Либо плати подписку за ChatGPT Plus, либо привязывай свою карту к API OpenAI/Anthropic/Perplexity."Дай данные":
Применение локальных LLM для OCR
Вдруг кому-то будет полезно. Возникла задача быстрого распознавания данных с фотографий и получения из них структурированной информации. Так же важно было отсутствие требовательного к ресурсам ПО и легкость разворачивания системы. Поэтому было решено попробовать использовать в качестве подключаемого модуля мультимодальные LLM запускаемые под Ollama, т.к. у неё есть REST API по которому удобно обращаться к модели.В последних версиях Ollama появился графический интерфейс, но он неудобен. Модели в ollama проще всего загрузить из командной строки. Например: ollama pull codellama.
Современные OCR для сложных документов: сравниваем 6 open-source моделей на реальном кошмаре инженера
Привет, Хабр! Каждый, кто хоть раз пытался вытащить данные из скана акта или старого отчета, знает эту боль. Классические OCR-инструменты, вроде старого доброго Apache Tika, отлично справляются с простым печатным текстом, но пасуют перед реальными вызовами: таблицами со сложной вёрсткой, рукописными пометками, мелким курсивом и разными шрифтами в одном документе.Чтобы не быть голословными, давайте посмотрим на типичный «сложный» документ и что с ним делает Tika.

