code review.

Если агент пишет код, то кем становится человек?

Андрей Карпати в январе 2026 года ввёл термин agentic engineering и сказал: вы не пишете код 99% времени, вы оркеструете агентов и выступаете надзором. Борис Черни, руководитель Claude Code в Anthropic, сообщил, что с ноября не правил ни одной строки руками и отгружает по двадцать с лишним пуллреквестов в день. Весь код пишет агент. Формулировки красивые. Хуже, что никто из них не объясняет, чем именно занят человек в эти 99% времени и что происходит, когда процесс не выстроен.

продолжить чтение

Вайбкодинг — это плохо?

Слово «вайбкодинг» в ИТ-среде вызывает неоднозначную реакцию: разработчики морщатся, бизнес интересуется, а все остальные делают вид, что давно разобрались.Всем привет, я Назар из команды продукта SimpleOne SDLC. Давайте честно — ни лагеря хейтеров, ни лагеря евангелистов не дают полного ответа на вопрос из заголовка. Поэтому разберёмся: почему разработчики так болезненно реагируют, а бизнес всё равно идёт в эту сторону, и что со всем этим делать.Отдельную благодарность за помощь в написании статьи выражаю Панфиловой Яне.Сначала — что такое вайбкодинг

продолжить чтение

Pipeline Triad Pattern: конвейер AI-агентов вместо команды разработки

Pipeline Triad Pattern: конвейер AI-агентов вместо команды разработкиTL;DRPipeline Triad Pattern - это не один AI-агент, а конвейер троек: Создатель, Критик и Арбитр. Каждая тройка закрывает свой этап SDLC, человек включается только в 4 контрольных точках, а сам паттерн лучше всего работает на типовых enterprise-задачах с формализованными правилами. Это не замена CI/CD, а слой агентного делегирования поверх обычной автоматизации. Главные ограничения - галлюцинации, качество промптов, оргпроцессы и безопасность самого конвейера.Scope:

продолжить чтение

Код без автора

Открыл MR на ревью. 847 строк. Тесты зелёные. Линтер чистый. Покрытие 91%.Одобрил.Через два дня - баг на проде. Webhook от платёжки возвращал 500 на определённой комбинации параметров. Полез разбираться. Смотрю в код и понимаю: я не помню, почему тут именно такая логика. Открыл git blame. Коммит мой. Ну, формально мой - Claude написал, я замержил.Самое неприятное - я этот код одобрил не потому, что разобрался. А потому, что он выглядел нормально. Тесты прошли. Линтер не ругался. Я решил, что этого достаточно. Не было.211 миллионов строкGitClear проанализировали

продолжить чтение

8 уровней агентной инженерии

Способности AI в написании кода растут быстрее, чем наше умение этими способностями пользоваться. Поэтому рост баллов на SWE-bench не коррелирует с метриками продуктивности, которые волнуют инженерных руководителей. Когда команда Anthropic выкатывает продукт вроде Cowork за 10 дней, а другая команда не может довести до ума сломанный POC на тех же моделях, разница в одном: первые закрыли разрыв между возможностями моделей и практикой, вторые — нет.

продолжить чтение

Облачные модели Ollama в задачах code review — честное сравнение на примерах

С недавних пор AI-инструменты стали важной частью разработки. Такие решения, как Cursor, Codex и Claude Code позволяют разработчикам генерировать код, ускорять написание функций и автоматизировать рутинные задачи. Это существенно повышает скорость разработки. Однако у такого подхода есть и обратная сторона: код начинает появляться быстрее, чем команды успевают его качественно проверять. В результате нагрузка на процесс code review

продолжить чтение

Цена контекста в агентной разработке: почему bottleneck — не код, а внимание человека

Пока diff небольшой, в нас просыпается хранитель инженерной чистоты: мы спорим о нейминге, замечаем лишний пробел, обсуждаем, стоило ли выносить логику в helper, но когда правка разрастается до тысяч строк, строгость уступает другому подходу: CI зелёный, тесты прошли, код выглядит вроде неплохо - можно жать Approve.

продолжить чтение

Я прочитал статью про 9 AI-ревьюеров — и сломал свой бюджет на токены

Значит так. Сижу, листаю Hacker News, натыкаюсь на пост от чувака с hamy.xyz: «9 Parallel AI Agents That Review My Code». Девять. Параллельных. Агентов. Которые ревьюят код.Я разраб и пишу на Claude Code уже год. Скиллы, субагенты, worktrees - всё как у людей. И вот читаю я этот пост и думаю: ну, у меня же уже стоит Superpowers с его code-review скиллом, но он один. А тут - девять штук. Security reviewer, performance reviewer, test quality reviewer, simplification reviewer... Каждый со своей специализацией, каждый в своём контекстном окне, каждый жрёт токены как не в себя.Естественно, я решил попробовать.Что вообще придумал этот Hamy

продолжить чтение

Почему мы ненавидим AI с точки зрения науки (и моей)

На Хабре я 10+ лет как читатель. Проблема: друзья-айтишники которым есть что сказать, по моей агитации садились писать первые статьи, но из-за неопытности тексты выходили "слишком гладкими" — в комментариях прилетало "нейрослоп", минусы, и человек бросал писать навсегда. При этом в ленте полно отполированного нейрослопа с характерными маркерами, который спокойно живёт в плюсах. Система вознаграждает умеющих маскировать генерацию и наказывает пишущих самостоятельно новичков.

продолжить чтение

Anthropic выпустила инструмент для проверки ИИ-кода

Anthropic представила инструмент проверки кода на основе ИИ, предназначенный для выявления ошибок до того, как они попадут в кодовую базу программного обеспечения. Новый продукт под названием Code Review уже запустили в Claude Code.

продолжить чтение

123