Больше чем ядро: как пет-проект вырос в мультитенантную платформу для создания AI-агентов
СодержаниеПролог. Краткость - сестра таланта... Часть 1. Концепт Часть 2A. Вайб-кодинг: философия и инструменты Часть 2B. Вайб-кодинг: практика взаимодействия Часть 3. Архитектура: первый блин комом Часть 4. Релиз и фичи Часть 5. Закат и рассвет Часть 6. Мультитенантная архитектура Часть 7: Сценарии — декларативная магия Часть 8. Эволюция системы плагинов: от модулей к экосистеме
Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)
В интернете огромное количество гайдов на тему транскрибации аудио и анализа совещаний через ИИ. Но все они описывают разрозненные решения: отдельно транскрибируй аудио, затем отправь в ChatGPT, и так далее.Я решил комплексно подойти к этому вопросу и навайбкодить веб-приложение, где все задачи решаются в одном окне, а именно:Хранение транскрипцийЧат с ИИ по содержимому встречиСтруктурированные протоколы (задачи, решения, события)Рекомендации ИИ на базе текущей и предыдущих встречИнтеграция с CRM в один клик (beta)
Деплой ML-моделей: что от вас реально ждут на работе
Новички часто не понимают, что именно считается деплоем ML-модели и насколько глубоко в этом нужно разбираться. Ниже я покажу, как деплой выглядит на практике, насколько он важен для начинающего ML-инженера и с какими технологиями имеет смысл познакомиться в первую очередь.Деплой ML-модели — это момент, когда обученная модель становится частью продукта. Модель перестаёт жить в ноутбуке и начинает работать в бизнес-логике: её можно вызывать из других сервисов и систем.В вакансиях ML-инженеров часто упоминают десятки технологий, связанных с деплоем: Docker, Kubernetes, CI/CD и другие.
6 Docker-фич для продвинутого использования. Часть 2
Привет Хабр! Снова.Docker уже давно стал стандартом, и базовые команды вроде docker run, docker build или docker compose up знакомы любому разработчику. Но экосистема и инструментарий контейнеризации гораздо глубже.В этом материале мы отойдём от банальных инструкций и разберём шесть продвинутых инструментов и настроек. Думаю, вы узнаете для себя что-нибудь новое.Читайте первую часть по ссылке.Dive: Рентген для образовDive
Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5
Недавно получил задачу сделать автоматизированную оцифровку характеристик из паспортов товаров в БД, а не изменение параметров вручную в ERP. Я подумал, было бы здорово поделиться, как я это сделал, с вами на Хабре!Базовые задачи:Нужно, чтобы это все работало локальноСистема должна принимать разные форматы (.doc, .pdf, .png)Возможность создавать динамические таблицы, куда ИИ будет заполнять сама информацию, а не хардкодить для каждой категории паспорта свои отчетыЖелательно, чтобы все работало на одной видеокарте (в моем случае 3090 на 24GB VRAM)
Как я внедрил агента в бекенд-прод для решения рутинных задач
TL;DRМы собрали рабочего ИИ-агента-разработчика, который сам анализирует задачи в Jira, уточняет детали, пишет код, запускает сборку, фиксит ошибки, создаёт MR в GitLab и отправляет его человеку на ревью. Он работает параллельно на нескольких задачах, благодаря чему суммарное время выполнения пачки задач падает почти втрое. Команда избавилась от рутины, а скорость разработки выросла без расширения штата.Использовали: Ollama + Qwen3 Coder, PostgreSQL, Docker, GitLab/Jira API, систему строгих JSON-действий.Столкнулись с контекстом, "галлюцинациями", GPU и самовольными правками кода - всё решаемо архитектурой.
Docker для начинающих: что это такое и как пользоваться
Статей про Docker много не бывает.В этом материале мы разберём базу: что такое Docker, как он работает и зачем нужен, а затем пошагово пройдём путь от установки до запуска первого контейнера.С подготовкой статьи помог:
Подключаем LLMку в свой Java-Kotlin проект через Docker
Всем привет, сегодня я расскажу как подключить LLMку через докер в ваш проект под разные задачи: от рабочих до бытовых.Мы будем использовать Java/Kotlin + Docker + Ollama.Немного о Ollama Ollama — это платформа для локального запуска и управления LLM (больших языковых моделей) на своём компьютере. Она нужна, чтобы использовать и тестировать модели вроде GPT или LLaMA без облака, хранить их локально и интегрировать в свои приложения. Я же сегодня буду вам показывать пример на llama3:8b. В первую очередь Llama 3‑8B оптимизирована для общего текстового интеллекта: от ответов на вопросы до прочих повседневных задач.

