Интеграционное тестирование в Spring Boot: SourceCraft + Amplicode + Docker Compose Starter в деле
Когда одних юнит-тестов уже недостаточно, на сцену выходят интеграционные. В этой статье от команды Amplicode мы покажем, как протестировать REST API в Spring Boot с использованием современного стека: генерация тестов через Amplicode, автоматический запуск окружения с помощью Docker Compose Starter и поддержки со стороны LLM-инструментов от Яндекса.Статья также доступна в формате видео на YouTube, VK Видео и RUTUBE
Интервью Евгения Борисова, Spring vs Quarkus, LLM не нужен | Spring АйО Подкаст №17
Представляем семнадцатый выпуск подкаста команды Spring АйО, в котором приняли участие четыре эксперта сообщества:Илья СазоновМихаил ПоливахаАлександр КучукПавел КисловЭксперты обсудили: интервью с участием Евгения Борисова, поверхностное сравнение Spring и Quarkus, место LLM в настоящем и будущем времени и многое другое.
Выживание социофобушка в команде: личный опыт
Привет! Меня зовут Станислав Иванов, я — Senior iOS Developer в команде мобильной разработки «Лаборатории Касперского». Я социофобушек. Но я разобрался, как жить с этим самодиагнозом в IT, где волей-неволей приходится существовать среди большого количества созвонов, встреч и диалогов. Если вы из тех, кто хочет только сажать красно-черные деревья / красить кнопки / расстилать инфру / обуздывать многопоточность / варить код, а вас таскают по встречам, вынуждают светить лицом и говорить ртом (и думать: «Кто все эти люди и что они от меня хотят?») — эта статья для вас. На своем совокупном опыте, полученном в разных компаниях, объясню, зачем нужны все эти таскание/свечение/говорение и как уменьшить собственные страдания.
Неблокирующий вызов внешнего сервиса в процессе
Довольно часто из процесса приходится обращаться по API к различным внешним сервисам. По сути, это стандартный сценарий оркестрации систем или даже микросервисов (пардон за модное слово). На BPMN диаграмме это выглядит просто и логично – постучались куда-то по API, получили ответ и перешли к следующей задаче. Для моделей аналитического уровня это нормально.
Телеграм-бот с ИИ Jlama: добавляем новые фичи
Привет Хабр! В прошлый раз мы сделали телеграм-бота с полноценным ИИ. Теперь мы продолжим добавлять новые интересные фичи нашему боту, но в этот раз мы начнем с конца и посмотрим на готовый результат, а потом разберем код и детали реализации.ДэмоПервое, что мы сделаем – это добавим небольшое меню с двумя опциями: выбор модели ИИ и отображение уже выбранной модели.
Telegram бот + ИИ Jlama своими руками
Хабр, привет! Сегодня мы попробуем сделать свой ИИ с телеграм ботом для возможности простого общения с ней. Сразу оговорюсь, мы не будем в очередной раз использовать открытый API ChatGPT или новомодного Deepseek. Мы развернем свой полноценный ИИ локально и сынтегрируем его с телеграм ботом.LLM модель

