rag.
DataCopilot: строим мультиагентную архитектуру для работы с корпоративным хранилищем данных и документацией
Привет, Хабр! Меня зовут Максим Шакуров, я ML-инженер в VK.
Практическое руководство по инжинирингу контекста для AI-ассистентов
Каждый раз, когда вы начинаете новую сессию чата с AI-ассистентом для программирования (будь то Cursor, Claude Code, Windsurf или Cortex Code), вы по сути начинаете с нуля.Ассистент не знает, что, например, ваша команда использует Streamlit для создания веб-приложений. Он не знает, что вы предпочитаете иконки Material вместо эмодзи. И он не в курсе того конфликта портов, из-за которого три месяца назад вы перешли с 8501 на 8505.Поэтому вам приходится повторяться. Сессию за сессией.
Новый LAMP, или почему ваш Agent Pipeline — это Apache в 2006 году
Помните LAMP? Linux, Apache, MySQL, PHP. 2006 год. Резюме сисадмина без LAMP не рассматривали. Курсы, сертификаты, форумы. Все учили стек. Мало кто спрашивал: а задачу-то как решать? Стек и есть решение. Поставил LAMP, залил WordPress, работает. Следующий.Откройте Хабр в 2026. “Собираем RAG на PHP за вечер.” “Оркестрация LLM через Redis.” “Agentic RAG Challenge.” “Multi-agent pipeline с LangChain.” На Coursera уже есть курс “Applied Agentic AI Pipelines”. Gartner фиксирует рост запросов по мультиагентным системам на 1445%.LangChain, RAG, VectorDB, Tool Calling. Новый LAMP.Все учат стек. Мало кто спрашивает: а задачу-то как решать?
Наглядный пример, зачем нужны агенты
Расскажу историю длиною в полгода на которой прекрасно прочувствовал все прелести современных инструментов и способов эксплуатации llm.
Как дообучать локальные LLM в 2026 году: практическое руководство
В 2026 году возможность дообучения локальных LLM стала реальной опцией для отдельных разработчиков и небольших команд. Это стало возможным благодаря снижению требований к видеопамяти (VRAM), развитию инструментов и расширению набора базовых моделей с открытыми лицензиями.
О нюансах работы приложений на базе искусственного интеллекта
Когда разработчик получает задачу, он её сначала декомпозирует: разбивает на части, ищет зависимости, проектирует решение. Потом уже пишет код.LLM делает наоборот. Она сразу начинает генерировать — точнее, перебирать паттерны из своего обучающего корпуса, пока не наткнётся на что-то похожее: без проектирования, без понимания.

