llm. - страница 20

llm.

GPT-5.5, DeepSeek V4 и Kimi K2.6 уже доступны в Veai

Прогнали на нашем интерактивном бенчмарке gpt-5.5 показывает заметно более надёжный профиль работы с инструментами и проверкой собственного результата, чем gpt-5.4. По формальной проверке корректности результата gpt-5.5 успешно закрывает на 20% больше

продолжить чтение

Агент + MCP в osysHome: как я превратил умный дом в управляемую инженерную систему

Когда я впервые подключил агента к умному дому через MCP, ожидал простой эффект: "ну, будет еще один способ дергать API". На практике вышло иначе. MCP в osysHome оказался не транспортом, а рабочим интерфейсом для эксплуатации: с понятными сущностями, историей изменений, проверками перед записью и безопасным контуром для автоматизации.Покажу это на живых примерах: без магии на слайдах, на реальных инструментах и бытовых сценариях.Почему вообще MCP в доме полезенОбычный путь автоматизации часто выглядит так:пишем скрипт на коленке;через месяц забываем, где и почему что-то менялось.

продолжить чтение

От каши к структуре: гибридная AI‑система для обработки свободного текста

Я занимаюсь проектом, где нужно из свободных текстов на естественном языке вытаскивать структурированные данные. Не разово — постоянно, по мере поступления. За несколько месяцев я перепробовал регулярки, чистый LLM и в итоге пришёл к гибриду. Ниже расскажу, что из этого всего вышло: архитектура, промпты, трудности и неочевидные решения.Стек: Python 3.12, Ollama + Qwen 2.5 (всё локально), YAML как формат хранения, SHA256 для дедупликации, Jinja2 для шаблонизации промптов.Проект называется Svyazi

продолжить чтение

Локальные LLM на слабом железе — что ставить, как запустить, чего ждать

Три года назад запустить 7-миллиардную модель локально означало профессиональный GPU. Потом появилась квантизация - сжатие весов с 32-битной точности до 4-битной. Модель стала в 3-4 раза легче при минимальной потере качества. 7B параметров теперь занимают 4-5 ГБ вместо 14.Параллельно с этим появилась Ollama - инструмент, который убирает всё лишнее между пользователем и моделью. Устанавливается одной командой, сама находит GPU если она есть (NVIDIA, AMD, Apple Metal), при отсутствии - работает на CPU. Модели качаются как докер-образы, запускаются одной строкой. Да, и никакой ручной настройки окружений.Установка Ollama и моделей

продолжить чтение

Model Context Protocol (MCP): как ИИ-агенты «разговаривают» с внешним миром

Взаимодействие MCP и LLMЕсли вы читали или смотрели видео про MCP, то наверняка сталкивались с таким комментарием: «Спасибо, ещё одна статья, из которой я ничего не понял».Аналогии и пояснения вроде «MCP — это как USB Type-C» или «MCP — это Tools, Resources и Prompts»

продолжить чтение

Оффлайн агент IDE Continue за 15 минут

ОглавлениеВведениеЧто потребуетсяШаг 1: Установка OllamaШаг 2: Загрузка моделей (LLM + embed)Шаг 3: Установка IntelliJ IDEA и плагина ContinueШаг 4: Настройка config.yamlШаг 5: Индексация проекта и первый запускПример работы: генерация и вставка кодаЗаключениеВведениеЯ расскажу, как реализовать локального LLM, который будет генерировать текст, код, тесты и сам вставлять результат прямо в ваш проект, если это требуется.⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин 

продолжить чтение

Veai на Heisenbug Spring и JPoint 2026

Привет, Хабр! На следующей неделе в Москве стартуют флагманские российские Java и QA конференции JPoint и Heisenbug Spring 2026. Приглашаем послушать доклады наших коллег и пообщаться с командой на стенде на JPoint. По традиции разыграем классный весенний мерч, ответим на ваши вопросы и покажем новые фичи агента из 

продолжить чтение

GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

GPT-2 мой новый фаворит для обложекЗа последние 48 часов индустрия ИИ пережила сразу 2 тектонических сдвига. Практически одновременно, 23 и 24 апреля 2026 года, свет увидели две новые флагманские модели: GPT-5.5 от OpenAI

продолжить чтение

Разворачиваем RAG на Java без боли: практический гайд

Всем привет! Недавно столкнулся с проблемой, что в настоящее время большая часть обучающих материалов по Retrieval‑Augmented Generation (RAG) сосредоточена на Python‑экосистеме (LangChain, LlamaIndex и тому подобное), а пошаговые руководства, которые показывают, как быстро собрать рабочее RAG‑приложение на чистом Java‑стеке, встречаются крайне редко. Эта статья представляет собой простое практическое руководство, где мы разберём весь процесс от настройки окружения до полного примера кода, чтобы даже начинающий Java‑разработчик мог развернуть RAG.

продолжить чтение

AI в iOS-разработке: что у меня реально закрепилось в 2026, а что я выкинул

За последние полгода я перетряс свой рабочий стек полностью: Cursor, Claude Code, Codex, локальные Qwen-модели для ревью, несколько итераций своего AGENTS.md, Xcode MCP, mobile-mcp, Conductor для параллельных сессий. Что-то прижилось, что-то я удалил через неделю, а какие-то практики, которые ещё весной казались обязательными, сейчас выглядят странно.Ниже — мои личные заметки по итогам этих полугода, а не обзор индустрии. Многое я подсмотрел у коллег и в чатах, не всё придумал сам.1. Минимализм в AGENTS.mdЕсли у вас CLAUDE.md (или AGENTS.md

продолжить чтение

1...10...181920212223...3040...236