От ChatGPT к мультиагентному контент-пайплайну: как 5 AI-агентов пишут мне кейсы
Это не просто статья на Хабре. Это AI-сгенерированная статья на Хабре. Ха! Попались? Меня зовут Ксения Иванчикова, я развиваю медиа Generation AI. Еще год назад я писала умные промпты для ChatGPT в надежде получить глубокий и качественный контент — получалось так себе. Недавно я навайбкодила пайплайн из пяти AI-агентов: они берут 20-минутную запись доклада с YouTube, выдают готовый кейс и верстают контент на WordPress. Рассказываю про опыт создания контент-машинки, которая не делает нейрослоп.
Два окна в работе с AI-агентами: архитектор и разработчик. Самый недооценённый паттерн
Самый рабочий паттерн в работе с AI-агентами на код — два окна. Одно с архитектором/проверяющим, второе с разработчиком. Можно собрать на одной модели: Claude в обоих окнах с разными системными промптами и сессиями. Можно смешать — у меня сейчас Claude Code в окне разработчика и GPT-5.5 в режиме высокого мышления в окне архитектора. Модель важна меньше, чем разделение ролей.Почему один агент почти всегда хуже двух, что делает каждое из окон, и где этот паттерн избыточен.Почему один агент — это плохо
Veai 5.10: общие скиллы и подсказки в чате
Главное в релизе – скиллы теперь подхватываются из dot-директорий других ассистентов. В чат добавили быструю документацию по ссылкам на код.Скиллы из dot-директорий других вендоровТипичная ситуация – в команде один работает на Claude Code, второй на Cursor, третий на Veai. У каждого своя папка под скиллы, и одни и те же инструкции расходятся по .claude, .cursor, .veai. Чтобы агент в Veai знал то же, что агент в Claude Code, скиллы приходилось копировать руками и потом следить, чтобы версии не разъехались.Теперь Veai ищет скиллы не только в .veai/skills/*/SKILL.md, но и в .*/skills/*/
Монтаж видео через Claude Code
Разбираю архитектуру открытого проекта от browser-use: как заставить LLM монтировать без необходимости «смотреть» видеоКогда речь заходит про обработку видео нейросетями, у большинства из нас в голове всплывает одна и та же картина: модель смотрит на кадры, что-то понимает на основе изображения, режет по визуальным признакам. На практике это упирается в простую арифметику. Часовое видео в 30 fps — это 108 000 кадров. Если каждый кадр стоит хотя бы 1500 токенов, получаем 162 миллиона токенов на одно видео. Никакая модель столько не возьмёт за один проход, а если резать на куски — теряется глобальный контекст.
Как настроить AI-агента под проект: контекст, rules, skills, MCP — конспект двух вебинаров
Эта статья - выжимка двух наших апрельских вебинаров с разработчиком агента Михаилом Костицыным. По общим тезисам каждый может проверить выводы у себя.Записи вебинаров на RuTube: — Вебинар 1 — AI-инструменты для разработчиков 2026 — Вебинар 2 — Настройка проекта под агента
Alibaba Cloud выпустил HiClaw v1.1.0 — Hermes Agent стал first-class Worker runtime
Alibaba Cloud выпустил HiClaw v1.1.0 — оператор для AI-агентов на Kubernetes. Главное обновление: Hermes Agent стал полноценным Worker runtime. HiClaw позволяет через CRD управлять ресурсами агентов в стиле Kubernetes и поддерживает Matrix-интеграцию для координации. В новой версии добавлена Kubernetes-native архитектура, модульный runtime Hermes с возможностью программирования и дебаггинга, интерфейсы для gateway и storage, разделение контейнеров, режимы сна и миграции, а также CLI и приветственное сообщение. Продукт подходит как для enterprise, так и для малых команд, с возможностью локальной установки и замены компонентов (например, LLM и S3).Cocoon AI Summary
10 уроков агентного кодинга. Что делать в эпоху дешёвого кода?
Передовые модели сейчас действительно хорошо пишут код — лучше, чем справляются с большинством других задач. Работа с агентами ощущается как взгляд из будущего: полигон для проверки того, насколько далеко можно зайти с агентными возможностями. Это заряжает, даёт результат и при этом — откровенно странно ощущается.
Качество кода в эпоху AI: как не утонуть в багах и уязвимостях
Современные LLM генерируют код в разы быстрее разработчика, но «быстро» не значит «правильно»: модель может неверно понять задачу, внести логический баг, допустить уязвимость или сломать архитектуру проекта.
Claude вспомнил то, чего я ему не говорил. Полез разбираться. У него пять механизмов памяти
Открыл новую сессию Claude Code в проекте, который не трогал две недели. Спросил «как там клиент, на каком этапе работа». Claude ответил с такими деталями, которых я ему в этой сессии точно не давал. Имя ssh-хоста, где живёт dev-стенд. Срок до приёмки. Папку для задач в моём Projects.Я смотрю на ответ и думаю: я ему это не говорил. По крайней мере, сегодня.Полез смотреть, что у меня хранится в ~/.claude/. Нашёл папку memory/ с шестнадцатью markdown-файлами. Открыл, и там лежит про меня всё: контекст по клиентам, мои предпочтения по тону, серверные правила, истории провалов. Всё, что Claude когда-то услышал и решил, что стоит запомнить.

