Как построить идеальную «песочницу» для ML-моделей
Привет, Хабр! Я Даниил Салман, техлид по контейнеризации. Эта статья написана по мотивам моего доклада для конференции DevOops. Разберёмся, как сделать такую ML-«песочницу», где Data Scientist пишет код, а всё остальное (установка драйверов, выделение ресурсов, деплой и тренировка модели, сбор метрик) уже настроено на бэкенде. Написали максимально просто и доступно, чтобы понять смог даже человек с минимальным погружением в тему. Идеи из этой статьи можно применять в любой инфраструктуре — важно лишь понимать основы: как работает k8s-кластер, Docker и python-фреймворки. Итак, поехали!
Как мы случайно сделали стартап, пока учили ИИ работать с реальной инфраструктурой
Когда мы впервые увидели AI-чаты, это выглядело впечатляюще. Они писали код, помогали с документацией, объясняли архитектурные решения.Это было хорошо. Но довольно быстро стало понятно главное:Для реальной работы этого недостаточно.ИИ умеет говорить, но не видит, что происходит в системе
NVIDIA открыла исходный код KAI Scheduler — планировщика, ранее использовавшегося в платформе Run:ai
Spring MCP, лучший HTTP-клиент и поддержка MyBatis
Amplicode 2025.3 — релиз про новые фичи для Spring Data JDBC, улучшения для HTTP-клиента Connekt (между прочим, убийца Postman), поддержку MyBatis и новые возможности по работе с инфраструктурой вокруг Kubernetes и Terraform.Ниже — ключевые изменения по блокам.Spring MCP от Amplicode (Beta)В 2025.3 у нас появился Spring MCP, но важно уточнить: это beta-функция, она пока не включена в релиз “по умолчанию”, но её уже можно активировать и попробовать.Если вы хотите интегрировать Amplicode с вашим ИИ-помощником уже сейчас — напишите нам на почту (info@amplicode.ru
Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло)
Привет, меня зовут Артем, я тимлид DevOps в одной аутстафф-компании. Столкнулись с классической ситуацией: десятки микросервисов, Kubernetes, куча observability-стека (Prometheus, Loki, Tempo, Grafana) и... постоянные ночные инциденты. «High CPU», «Pod CrashLoopBackOff», «5xx errors rising». У нас есть runbooks, документация, скрипты для быстрого доступа к логам. Но в 3 ночи, когда срабатывает критический алерт, тратишь время на то, чтобы проснуться, сообразить, куда залогиниться и какую команду выполнить… Мы задались вопросом: а если первым на инцидент будет реагировать не человек, а ИИ-агент?⠀⠀Боль, которую мы хотели решить:1.
Трактор без тракториста: почему разработка не упрощается при наличии современных инструментов
Привет, Хабр!Продолжаю делиться дискуссиями из нашего телеграм-канала Dev Q&A. На этот раз собрались поговорить о том, почему при всём богатстве инструментов — Kubernetes, CI/CD, low-code, AI-ассистенты — разработка не становится ни быстрее, ни дешевле. Компанию мне составили: Андрей Почтов (СТО АЭРО), Руслан Остропольский (Test IT), Алексей Каньков (Revizto), Антон Новожилов (mrnet), Генри Бабенко (Tech Lead), Яна Шакленина (Outlines Tech) и Алексей Граков (Agizo).
Cloud Native LVM: как автоматизировать поиск и разметку локальных дисков в Kubernetes
Всем привет, меня зовут Александр Зимин, я руковожу разработкой подсистемы хранения данных в Deckhouse. Сегодня хочу поговорить о хранении данных на локальных дисках в Kubernetes и поделиться тем, как мы автоматизируем их подготовку для администраторов и пользователей.Обычно решения, которые работают с локальными дисками в K8s, не предоставляют нативных инструментов для их поиска и разметки. Мы закрыли этот пробел и создали Cloud Native LVM. В статье я расскажу, как этот инструмент работает и как мы обошли подводные камни в процессе его разработки. Это статья по мотивам доклада

