Блог компании Флант.

Настроил ИИ-агента прямо в редакторе Zed: подключил Gemini и gopls, чтобы агент понимал код и реально помогал писать

За последние десять лет инструменты разработки существенно ускорили мою работу, но не изменили её сути: до недавних пор я тратил большую часть рабочего времени на написание кода и тестов. Но я смог это изменить, когда начал активно осваивать возможности ИИ.Меня зовут Александр Зайцев. Я Go-разработчик в команде Delivery компании «Флант» и работаю над werf и Deckhouse Delivery Kit (DevSecOps). В этой статье я:расскажу, как переводил свою работу на ИИ-рельсы и с какими вызовами столкнулся на этом пути;

продолжить чтение

От workslop к реальной пользе: как я выбрал и настроил ИИ-агента для Go-разработки (инструкции, конфиги, рекомендации)

За последние десять лет инструменты разработки существенно ускорили мою работу, но не изменили её сути: до недавних пор я тратил большую часть рабочего времени на написание кода и тестов. Но я смог это изменить, когда начал активно осваивать возможности ИИ.Меня зовут Александр Зайцев. Я Go-разработчик в команде Delivery компании «Флант» и работаю над werf и Deckhouse Delivery Kit (DevSecOps). В этой статье я:расскажу, как переводил свою работу на ИИ-рельсы и с какими вызовами столкнулся на этом пути;

продолжить чтение

DRAматургия GPU в Kubernetes: зачем нужен DRA, если Device Plugin работает? Разбираем грабли AI-инфраструктуры

Device Plugin честно отработал свою эпоху: он научил Kubernetes видеть GPU и выдавать их подам. Но с AI‑бумом GPU превратились в общий ресурс для десятков команд. Тут уже не «лишь бы запустилось», а нужны жёсткая изоляция, топология и утилизация. Старая модель упёрлась в потолок. Чтобы обойти её ограничения, команды вынуждены городить поверх «второй Kubernetes». А это дорого, часто ломается и плохо масштабируется.

продолжить чтение

Даёшь самоуправление! Управляем конфигурацией HashiСorp Vault изнутри, опираясь на Git и кворум подписей

Многие DevOps-инженеры пользуются HashiCorp Vault для хранения секретов или управления ими.Помимо того, что все данные в хранилище надёжно зашифрованы, инструмент позволяет гранулярно выдать доступ на какие-то операции. Например, с помощью одной учётной записи секрет можно создать, но нельзя прочитать или изменить. А с помощью другой можно только прочитать. Этим все повсеместно пользуются — инженеры и разработчики читают или создают секреты, а какой-то администратор выдаёт к этим секретам доступы.И тут есть подвох — администратор может прочитать любые секреты, которые может прочитать хоть кто-то ещё.

продолжить чтение

Cloud Native LVM: как автоматизировать поиск и разметку локальных дисков в Kubernetes

Всем привет, меня зовут Александр Зимин, я руковожу разработкой подсистемы хранения данных в Deckhouse. Сегодня хочу поговорить о хранении данных на локальных дисках в Kubernetes и поделиться тем, как мы автоматизируем их подготовку для администраторов и пользователей.Обычно решения, которые работают с локальными дисками в K8s, не предоставляют нативных инструментов для их поиска и разметки. Мы закрыли этот пробел и создали Cloud Native LVM. В статье я расскажу, как этот инструмент работает и как мы обошли подводные камни в процессе его разработки.   Это статья по мотивам доклада

продолжить чтение

Успех секрета: как доставлять секреты в приложения безопасно и без головной боли

Секреты — это то, без чего не живёт ни одно приложение: токены, пароли, ключи. Хранить их опасно, доставлять — ещё опаснее. Мы во «Фланте» тоже когда-то верили в HashiCorp Vault, но быстро поняли, что с ним не всё так гладко. Рассказываем, как мы переосмыслили подход к secret management в своём продукте Deckhouse Stronghold, что придумали, чтобы не потерять безопасность на delivery-этапе, и какие риски всё ещё остаются, даже если сделать всё «правильно».Это статья по мотивам доклада

продолжить чтение

Технологическая эволюция Mercado Libre: от монолита к мультиоблачной платформе

Перевели для вас цикл статей об эволюции технологической платформы Mercado Libre — от монолитной архитектуры начала 2000-х к современной мультиоблачной платформе Fury, которая обеспечивает разработчикам удобную, масштабируемую и безопасную среду для создания, развёртывания и управления приложениями. В этой — первой — части описывается переход компании от единой базы и медленных релизов к микросервисам и облачным технологиям, что позволило значительно ускорить разработку и повысить надёжность систем. Передаём слово автору — ведущему техническому руководителю Mercado Libre Хулиано Мартинсу (Juliano Martins).

продолжить чтение

60 тысяч подписчиков у хаброблога «Фланта»: собрали лучшие материалы за год

Год назад, в прошлом июне, мы писали о том, что аудитория нашего блога на Хабре достигла 50 тысяч подписчиков. А сегодня счётчик преодолел отметку уже в 60 тысяч! Спасибо, что читаете и поддерживаете нас.Мы занимаемся DevOps и Kubernetes уже 17 лет: создаём и поддерживаем инфраструктуру любого размера, разрабатываем продукты Deckhouse, которые помогают упростить разработку, доставку и работу приложений, а также консультируем другие компании по вопросам DevOps и технологиям. И в блоге мы делимся опытом и лучшими практиками в этих областях. 

продолжить чтение

Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI

Мы с вами подобрались к заключительной части статьи-инструкции об организации распределённого инференса и шардирования LLM в домашних условиях. Мы уже запустили модель Gemma 3 и протестировали API, самое время настроить авторизацию и удобный веб-интерфейс для взаимодействия с нашей моделью. Им станет бесплатный Open WebUI. В конце статьи попросим домашнюю LLM подвести итоги всей проделанной работы, а также поговорим о планах по развитию проекта.

продолжить чтение

Распределённый инференс и шардирование LLM. Часть 2: скрипт vLLM, Ray Serve для вывода API и настройка KubeRay Cluster

Продолжаем разбираться с тем, как можно эффективно работать с большими языковыми моделями, используя доступное оборудование.В этой части мы перейдём к организации распределённого инференса с помощью vLLM и обеспечим доступ к нему через Ray Serve. А ещё выясним, как запустить модель Gemma 3 в Ray-кластере и как проверить работу нашего OpenAI-совместимого эндпойнта с JWT-аутентификацией.

продолжить чтение

12