Java.
28 дней со Spring AI: от простого чата до полноценного инструмента
Если дедлайн плавающий или его нет, обучение и пет-проекты превращаются в вечный "черновик": сегодня читаешь доки, завтра переписываешь пример, послезавтра думаешь про идеальную архитектуру. Это нормальный творческий процесс - пока не заметишь, что за месяц у тебя так и нет ничего, что можно запустить и показать.Когда я проходил AI Advent Challenge
ИИ-ассистенты не ломают поддерживаемость кода. Но есть нюансы (выжимка из исследования Echoes of AI)
Перевод и выжимка исследования Echoes of AI: Investigating the Downstream Effects of AI Assistants on Software MaintainabilityБолее визуально видео с обзором исследования можно посмотреть на канале Дейва Фарли - Continuous Delivery.О чём речьБольшинство исследований влияния ИИ на разработку измеряют одно: скорость написания кода. «На сколько процентов быстрее закрыта задача?» «Сколько строк сгенерировано за час?» По сути, мы измеряем скорость набора текста и называем это продуктивностью.
Почему план «заменить разработчиков ИИ» превращается в техдолг и кадровый кризис
Статья: компиляция нескольких исследований, на них ведут ссылкиМорбо в студииПреамбулаВ 2023–2024 годах менеджерам в корпорациях активно продавали идею, что большие языковые модели вот‑вот заменят кучу разработчиков и резко повысят производительность команд.
Veai 5.4: изображения в чате, компрессия контекста и до 70% экономии на Anthropic
Новая версия Veai 5.4 (плагин к IntelliJ IDEA со своим AI агентом для написания кода, тестирования и отладки) — это практичные улучшения для повседневной разработки.Персональные пользователи теперь могут прикладывать изображения прямо в чат (удобно для фронтенда и UI-тестирования), запросы к моделям Anthropic стали до 70% дешевле за счёт улучшенного кэширования, а большие чаты автоматически сжимаются без дополнительных запросов к LLM.Появились новые сценарии для автоматического разрешения merge-конфликтов и
Veai 5.3: новые режимы агента, личный кабинет и выбор модели LLM
В Veai 5.3 появился личный кабинет и возможность выбрать модель LLM для индивидуальных пользователей, добавлены режимы работы агента (Modes) и обновлён интерфейс для более удобной работы.Личный кабинет для индивидуальных пользователейЗдесь пользователь может видеть баланс токенов и срок их действия, управлять подпиской, знакомиться с документацией и связаться с командой. Бесплатный 30-дневный пробный период активируется при регистрации в личном кабинете.
LLM + 1C: Почему чат-бот для учета — это плохая идея, и как реализовать AI-шлюз через OData
Вводная часть: Наивная мечта Изначально идея казалась кристально чистой: пользователь отправляет текстовый или голосовой запрос (например: «Выведи топ должников по Тверской области на текущую дату и суммы задолженности»). Шлюз транскрибирует голос в текст (использована Java + библиотека Vosk), передает его ИИ, а тот «понимает», какие запросы нужно сделать к OData 1С, получает данные и возвращает пользователю красивый, структурированный отчет. Для голосового ввода использовался отдельный модуль на базе Vosk
Контент, который ест сам себя
Привет, Хабр! Я Екатерина Кильгишова, директор по маркетингу Axiom JDK.
Корпоративный RAG как MCP-сервис: подключаем кодовую базу к IDE
В компаниях с несколькими продуктами знания о коде и архитектуре почти неизбежно расползаются. Часть живёт в репозиториях, часть — в статьях с архитектурными решениями, часть — в корпоративной базе знаний (в нашем случае — Confluence). На небольшом масштабе это выглядит как порядок. Но по мере роста начинают проявляться системные эффекты.
Вышел Amplicode 2025.3 со Spring MCP, поддержкой Spring Data JDBC и MyBatis
В релизе 2025.3 мы заметно усилили Amplicode по трём направлениям: интеграция с LLM, работа с SQL-first стеком и повседневная инженерная рутина — от HTTP-запросов до Kubernetes и Terraform.Ключевое нововведение — Spring MCP (beta). Это специализированный набор инструментов для LLM, который даёт модели контекст проекта Spring: структуру, зависимости, конфигурацию. Фича пока не включена по умолчанию, но уже доступна для тестирования. Для получения доступа напишите на info@amplicode.ru

