Ещё один архитектор правил для ИИ-агентов
Проблема, которую ощущают многие, но решают немногие.Вы запускаете Zed, Kiro, Cline, Claude Code или Qwen. Описываете задачу. Агент создаёт код. И вот он перед вами... Иногда качественный. Иногда — беспорядочная смесь чужих стандартов, случайных шаблонов и игнорирование структуры вашего проекта.Вы поправляете. Объясняете снова. Поправляете. Через час понимаете: вы тратите больше времени на управление агентом, чем на саму задачу.Знакомо?Почему агенты «тупят»Дело не в модели. Claude, GPT, Gemini, Qwen — все они достаточно "умные".Проблема в другом: У агента нет контекста вашего проекта.
ИИ‑агент внутри 1С
1C AI Agent — продукт, который не “поговорить”, а “сделать”Привет. Это первая публикация про наш новый продукт — 1C AI Agent.Если коротко: LLM — это уже нормальный рабочий инструмент, и с ним всё ок. Но нам хотелось сделать следующий шаг: чтобы в 1С можно было не только “спросить и получить текст”, а попросить и получить результат в базе — с понятным планом, проверками и ограничениями.Мы сделали иначе: агент внутри 1С получает задачу человеческими словами, раскладывает её на шаги и исполняет
Когда зашел не в ту дверь. Или как рядовому Qa automation жить в мире с LLM
Как рядовому Qa automation жить в мире с LLMCодержание:ВведениеКак войти? Быстрый старт0. Первые шаги1. Аналитика и анализ2. Рядовые кейсы для облегчения жизни3. Настраиваем свой тестовый фреймворк
Интеграция coding-агента с MCP-сервером Idea
В IntelliJ Idea (а, значит, и в OpenIDE) есть встроенный MCP-сервер. Активируется он достаточно просто и позволяет расширять стандартную функциональность command-line кодинговых агентов, таких как платный Claude Code или бесплатный, но тоже весьма неплохой Qwen Code
Claude Cowork: Революция или «недотерминал» в красивой обертке?
Claude Code — это мощный инструмент для разработки. Но не только. Я, как и многие, использую его вообще не для кода. Он помогает мне вести заметки, менеджерить проекты, писать тексты и управлять файлами.Кстати, я много пишу об этом в своем телеграм-канале «Вкалывают роботы». Если тема AI-агентов интересна — подписывайтесь, там много живых кейсов.
Как Bugbot в Cursor удвоил число реально исправленных багов
В Cursor подробно разобрали, как эволюционировал Bugbot — агент для код-ревью pull request’ов, который ищет логические баги, проблемы с производительностью и уязвимости до мержа.Изначально качество оценивали почти вручную: меняли пайплайны, модели и фильтры, опрашивали инженеров и отсекали конфигурации с высоким числом false positive. Один из первых устойчивых приёмов — несколько параллельных проходов по diff’у с разным порядком строк и majority voting: баг считался «реальным», если его находили независимо несколько запусков.
Китайцы снова радуют. Вышла GLM-4.7 – заметный апгрейд именно для агентного кодинга
Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).
OpenAI выпустили GPT-5.2-Codex
GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах
No-code автономные агенты: миф или реальность
Ваш новый AI-сотрудник должен был стать вашим личным Джарвисом, но вместо этого вы получаете цифровое нечто, которое не решает бизнес-задачи, а только создает проблемы. Разочарование? Естественно. Вас обманули: вам обещали волшебную кнопку, а подсунули еще одну головную боль. Все из-за хайпа вокруг автономных агентов, который создал миф: «подключил, настроил и забыл».Мы верим в другой подход. Автономные агенты — реальность, но это история не о полном отпускании ситуации и передаче управления, а о контроле. Вы можете выстроить их в отлаженную команду, где у каждого — своя роль, а у вас — полная картина происходящего.
Как я внедрил агента в бекенд-прод для решения рутинных задач
TL;DRМы собрали рабочего ИИ-агента-разработчика, который сам анализирует задачи в Jira, уточняет детали, пишет код, запускает сборку, фиксит ошибки, создаёт MR в GitLab и отправляет его человеку на ревью. Он работает параллельно на нескольких задачах, благодаря чему суммарное время выполнения пачки задач падает почти втрое. Команда избавилась от рутины, а скорость разработки выросла без расширения штата.Использовали: Ollama + Qwen3 Coder, PostgreSQL, Docker, GitLab/Jira API, систему строгих JSON-действий.Столкнулись с контекстом, "галлюцинациями", GPU и самовольными правками кода - всё решаемо архитектурой.

