Почему ваша LLM-платформа — следующая цель: аудит безопасности AI-сервиса изнутри
Disclaimer: Всё описанное — результат санкционированного аудита безопасности по договору. Уязвимости ответственно раскрыты, ключи ротированы, домены и IP изменены. Статья — для понимания, не для воспроизведения.Мы искали уязвимости в RAG-платформе с десятками тысяч пользователей — а нашли доступ ко всей инфраструктуре и API-ключам с бюджетом в сотни тысяч долларов. Две недели мы строили сложные цепочки: SSRF через LangChain, инъекции в промпты, HTTP smuggling, CVE в десериализации. Ни одна не дала результата. А потом мы сделали один curl к открытому порту — и получили все ключи за 5 минут.
Новый LAMP, или почему ваш Agent Pipeline — это Apache в 2006 году
Помните LAMP? Linux, Apache, MySQL, PHP. 2006 год. Резюме сисадмина без LAMP не рассматривали. Курсы, сертификаты, форумы. Все учили стек. Мало кто спрашивал: а задачу-то как решать? Стек и есть решение. Поставил LAMP, залил WordPress, работает. Следующий.Откройте Хабр в 2026. “Собираем RAG на PHP за вечер.” “Оркестрация LLM через Redis.” “Agentic RAG Challenge.” “Multi-agent pipeline с LangChain.” На Coursera уже есть курс “Applied Agentic AI Pipelines”. Gartner фиксирует рост запросов по мультиагентным системам на 1445%.LangChain, RAG, VectorDB, Tool Calling. Новый LAMP.Все учат стек. Мало кто спрашивает: а задачу-то как решать?
Собираем AI-агента нового поколения: Python, RAG и внешние инструменты через MCP (Model Context Protocol)
Введение: от простых цепочек к агентам, которые действуютЕщё пару лет назад типичное LLM-приложение выглядело как последовательная цепочка вызовов: взяли промпт, добавили контекст из векторной базы, отправили в модель, получили ответ. LangChain популяризировал эту парадигму — chains, retrievers, memory — и это работало для простых сценариев вроде «ответь на вопрос по документации».Но бизнес-задачи редко укладываются в линейный пайплайн. Пользователь хочет не просто получить ответ, а чтобы система совершила действие
Почему ваш LLM-сервис ведёт себя как хочет, а не как вы просите
Вы пишете промпт. Подробно, вдумчиво, с примерами. Деплоите в сервис. Запускаете — и получаете markdown-обёртку вокруг JSON, который вы просили.
LangChain выпустил Deep Agents. Как это меняет подход к созданию агентных систем
Большинство команд до сих пор вручную собирают агентные циклы в LangGraph. Deep Agents предлагает более высокоуровневый подход, и он более категоричный в своих решениях, чем можно ожидать.Есть паттерн, который я наблюдаю почти в каждой команде, которая серьёзно берётся за разработку агентов.
Мультиагентная система без LangChain: почему абстракции ломаются и как строить production на чистом Python
ВведениеLangChain обещает красивую жизнь: переключите модель одной строкой, подключите RAG за две, дайте агенту инструменты за три. На лендинге всё выглядит как конструктор LEGO — берёшь кубики, соединяешь, работает. На хакатоне это действительно так. В production — не совсем.Тезис «LangChain — overhead для production» не нов. Его обсуждают в каждом втором треде на Reddit и в комментариях на Хабре. Компания Octomind
Скормил нейросети 40 статей ПИК с Хабра: RAG-бот на GigaChat для BIM без опыта в разработке
Предыстория: архитектура, BIM и попытки автоматизацииМеня зовут Владислав Пономарев, я архитектор, проектирую дома. Ещё в магистратуре, 10 лет назад я занимался BIM-внедрением в проектной организации в Сочи. Это были Revit, Civil 3D и другие инструменты. Делал это в рамках своей темы магистерской работы. Потом переключился на архитектуру в частном домостроительстве, где больше изучал практические вопросы проектирования и философию архитектуры, ее эстетические качества. Но любовь к более сложному BIM осталась. С энтузиазмом продвигал тему BIM, когда до массового внедрения в РФ было еще далеко.
У нас есть джун, и мы его учим
Амбициозный, с собственными пет-проектами, участвующий в формах и профильных ивентах/конференциях — софты уже есть, на нашей стороне — харды.Начали обучение мы даже без погружения в то, как работает LLM, просто научили его работать в графическом интерфейсе нашей платформы, создавать простейшие цепочки и написания промптов.Плюс, постепенно изучаем то, из чего состоит само приложение (что можно подключить память, что там можно выбирать различные инструменты для работы), отдельные моды в LangChain для разных задач, для вопросно-ответных систем, для систем, где агент выбирает сам инструменты, где система работает с реактом.
Как нейросеть может быть лучшим ассистентом?
Привет, меня зовут Лера. Работаю Head of Community / Marketing в школе Web3-разработки, но времена немного меняются. И тема этой статьи говорит за себя. По долгу своей службы вокруг меня постоянно проводят стримы, связанные с AI: автоматизация, вайбкод, личные ассистенты, оптимизация рабочих процессов. Ресёрч, подключение MCP и конечно же RAG.

