Java.
Veai 5.3: новые режимы агента, личный кабинет и выбор модели LLM
В Veai 5.3 появился личный кабинет и возможность выбрать модель LLM для индивидуальных пользователей, добавлены режимы работы агента (Modes) и обновлён интерфейс для более удобной работы.Личный кабинет для индивидуальных пользователейЗдесь пользователь может видеть баланс токенов и срок их действия, управлять подпиской, знакомиться с документацией и связаться с командой. Бесплатный 30-дневный пробный период активируется при регистрации в личном кабинете.
LLM + 1C: Почему чат-бот для учета — это плохая идея, и как реализовать AI-шлюз через OData
Вводная часть: Наивная мечта Изначально идея казалась кристально чистой: пользователь отправляет текстовый или голосовой запрос (например: «Выведи топ должников по Тверской области на текущую дату и суммы задолженности»). Шлюз транскрибирует голос в текст (использована Java + библиотека Vosk), передает его ИИ, а тот «понимает», какие запросы нужно сделать к OData 1С, получает данные и возвращает пользователю красивый, структурированный отчет. Для голосового ввода использовался отдельный модуль на базе Vosk
Контент, который ест сам себя
Привет, Хабр! Я Екатерина Кильгишова, директор по маркетингу Axiom JDK.
Корпоративный RAG как MCP-сервис: подключаем кодовую базу к IDE
В компаниях с несколькими продуктами знания о коде и архитектуре почти неизбежно расползаются. Часть живёт в репозиториях, часть — в статьях с архитектурными решениями, часть — в корпоративной базе знаний (в нашем случае — Confluence). На небольшом масштабе это выглядит как порядок. Но по мере роста начинают проявляться системные эффекты.
Вышел Amplicode 2025.3 со Spring MCP, поддержкой Spring Data JDBC и MyBatis
В релизе 2025.3 мы заметно усилили Amplicode по трём направлениям: интеграция с LLM, работа с SQL-first стеком и повседневная инженерная рутина — от HTTP-запросов до Kubernetes и Terraform.Ключевое нововведение — Spring MCP (beta). Это специализированный набор инструментов для LLM, который даёт модели контекст проекта Spring: структуру, зависимости, конфигурацию. Фича пока не включена по умолчанию, но уже доступна для тестирования. Для получения доступа напишите на info@amplicode.ru
Spring MCP, лучший HTTP-клиент и поддержка MyBatis
Amplicode 2025.3 — релиз про новые фичи для Spring Data JDBC, улучшения для HTTP-клиента Connekt (между прочим, убийца Postman), поддержку MyBatis и новые возможности по работе с инфраструктурой вокруг Kubernetes и Terraform.Ниже — ключевые изменения по блокам.Spring MCP от Amplicode (Beta)В 2025.3 у нас появился Spring MCP, но важно уточнить: это beta-функция, она пока не включена в релиз “по умолчанию”, но её уже можно активировать и попробовать.Если вы хотите интегрировать Amplicode с вашим ИИ-помощником уже сейчас — напишите нам на почту (info@amplicode.ru
Настраиваем ИИ-помощника бесплатно и без вендорлока в IntelliJ IDEA, GoLand, WebStorm, OpenIDE и GigaIDE
За последние пару лет IDE реально встряхнуло: к подсказкам и рефакторингам добавились AI-ассистенты a.k.a. Агенты. Они дописывают код, предлагают варианты решений, генерируют тесты и умеют “переводить” чужой legacy на человеческий. Теперь почти в каждой IDE есть кнопка «спросить у модели» — и разработчик больше не один на один с редактором.
Как устроен Amplicode MCP: от кувалды к скальпелю
Эта статья дополняет предыдущую. Там мы зафиксировали проблемы. Здесь разберем, что именно мы сделали со стороны Amplicode, чтобы агент начал работать как опытный software engineer: опираясь на структуру проекта, детерминированные генераторы и понятные высокоуровневые операции.Если коротко, в первой статье было несколько основных болей:LLM часто обучены на слегка устаревшем мире, и это вылезает в мелочах (и не только).Галлюцинации и нехватка контекста идут рука об руку: «кажется, в этой библиотеке должен быть такой метод» и пошло-поехало.
Как сократить расходы на токены и повысить точность LLM
Когда количество доступных LLM инструментов (tool-ов) разрастается, традиционные подходы к tool calling становятся непрактичными — утилизация токенов улетает ещё до начала общения. К тому же, модели становится сложнее выбрать нужный набор tool-ов для решения проблемы.В новом переводе от команды Spring АйО читаем о паттерне Tool Search Tool, предложенном Anthropic и реализованном в Spring AI с помощью ToolSearchToolCallAdvisor. Он позволяет LLM динамически находить нужные инструменты по мере необходимости, экономя до 64% токенов и повышая точность.

