Kotlin.

Как затащить AI в Java-Kotlin проект

Мир Enterprise-разработки на Java/Kotlin и мир нейронных сетей кажутся параллельными вселенными. С одной стороны - статическая типизация, многопоточность, Spring-контейнеры, а с другой - Python-скрипты, тензорные операции и эксперименты в Jupyter Notebook. Между ними - пропасть, через которую многие команды не решаются перешагнуть.

продолжить чтение

Вышел Amplicode 2025.3 со Spring MCP, поддержкой Spring Data JDBC и MyBatis

В релизе 2025.3 мы заметно усилили Amplicode по трём направлениям: интеграция с LLM, работа с SQL-first стеком и повседневная инженерная рутина — от HTTP-запросов до Kubernetes и Terraform.Ключевое нововведение — Spring MCP (beta). Это специализированный набор инструментов для LLM, который даёт модели контекст проекта Spring: структуру, зависимости, конфигурацию. Фича пока не включена по умолчанию, но уже доступна для тестирования. Для получения доступа напишите на info@amplicode.ru

продолжить чтение

Spring MCP, лучший HTTP-клиент и поддержка MyBatis

Amplicode 2025.3 — релиз про новые фичи для Spring Data JDBC, улучшения для HTTP-клиента Connekt (между прочим, убийца Postman), поддержку MyBatis и новые возможности по работе с инфраструктурой вокруг Kubernetes и Terraform.Ниже — ключевые изменения по блокам.Spring MCP от Amplicode (Beta)В 2025.3 у нас появился Spring MCP, но важно уточнить: это beta-функция, она пока не включена в релиз “по умолчанию”, но её уже можно активировать и попробовать.Если вы хотите интегрировать Amplicode с вашим ИИ-помощником уже сейчас — напишите нам на почту (info@amplicode.ru

продолжить чтение

От ощущений к цифрам: как мы внедрили метрики перформанса в андроид приложение

Всем привет, меня зовут Тимурandroid разработчик в платформенной команде с опытом около 5 лет, в основном в сфере ритейла и e-com.

продолжить чтение

Настраиваем ИИ-помощника бесплатно и без вендорлока в IntelliJ IDEA, GoLand, WebStorm, OpenIDE и GigaIDE

За последние пару лет IDE реально встряхнуло: к подсказкам и рефакторингам добавились AI-ассистенты a.k.a. Агенты. Они дописывают код, предлагают варианты решений, генерируют тесты и умеют “переводить” чужой legacy на человеческий. Теперь почти в каждой IDE есть кнопка «спросить у модели» — и разработчик больше не один на один с редактором.

продолжить чтение

Как устроен Amplicode MCP: от кувалды к скальпелю

Эта статья дополняет предыдущую. Там мы зафиксировали проблемы. Здесь разберем, что именно мы сделали со стороны Amplicode, чтобы агент начал работать как опытный software engineer: опираясь на структуру проекта, детерминированные генераторы и понятные высокоуровневые операции.Если коротко, в первой статье было несколько основных болей:LLM часто обучены на слегка устаревшем мире, и это вылезает в мелочах (и не только).Галлюцинации и нехватка контекста идут рука об руку: «кажется, в этой библиотеке должен быть такой метод» и пошло-поехало.

продолжить чтение

Как сократить расходы на токены и повысить точность LLM

Когда количество доступных LLM инструментов (tool-ов) разрастается, традиционные подходы к tool calling становятся непрактичными — утилизация токенов улетает ещё до начала общения. К тому же, модели становится сложнее выбрать нужный набор tool-ов для решения проблемы.В новом переводе от команды Spring АйО читаем о паттерне Tool Search Tool, предложенном Anthropic и реализованном в Spring AI с помощью ToolSearchToolCallAdvisor. Он позволяет LLM динамически находить нужные инструменты по мере необходимости, экономя до 64% токенов и повышая точность.

продолжить чтение

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

Новости противоречат друг другу. Один источник пишет «завод встал», второй — «встала первая линия», третий копипастит статью двухлетней давности. Когда через твой пайплайн проходят сотни таких новостей в сутки, ручная верификация перестаёт масштабироваться.Мы столкнулись с этим при построении новостного пайплайна StatCar — нишевого СМИ об автомобилях. Стандартные LLM не подходят — их знания устаревают на момент обучения. Вариант «LLM + web_search tool» рассматривали, но отказались: дороже и менее эффективно. Perplexity заточен под поиск — это его core competency.

продолжить чтение

Как я создавал язык для преобразования данных вместе с ChatGPT

Девять лет назад я написал эти строки* и совершенно забыл про них через некоторое время. Наткнувшись на свои заметки в процессе написания статьи, неожиданно нашел там подходящий эпиграф.

продолжить чтение

Подключаем LLMку в свой Java-Kotlin проект через Docker

Всем привет, сегодня я расскажу как подключить LLMку через докер в ваш проект под разные задачи: от рабочих до бытовых.Мы будем использовать Java/Kotlin + Docker + Ollama.Немного о Ollama Ollama — это платформа для локального запуска и управления LLM (больших языковых моделей) на своём компьютере. Она нужна, чтобы использовать и тестировать модели вроде GPT или LLaMA без облака, хранить их локально и интегрировать в свои приложения. Я же сегодня буду вам показывать пример на llama3:8b. В первую очередь Llama 3‑8B оптимизирована для общего текстового интеллекта: от ответов на вопросы до прочих повседневных задач.

продолжить чтение

Rambler's Top100