code review.

Облачные модели Ollama в задачах code review — честное сравнение на примерах

С недавних пор AI-инструменты стали важной частью разработки. Такие решения, как Cursor, Codex и Claude Code позволяют разработчикам генерировать код, ускорять написание функций и автоматизировать рутинные задачи. Это существенно повышает скорость разработки. Однако у такого подхода есть и обратная сторона: код начинает появляться быстрее, чем команды успевают его качественно проверять. В результате нагрузка на процесс code review

продолжить чтение

Цена контекста в агентной разработке: почему bottleneck — не код, а внимание человека

Пока diff небольшой, в нас просыпается хранитель инженерной чистоты: мы спорим о нейминге, замечаем лишний пробел, обсуждаем, стоило ли выносить логику в helper, но когда правка разрастается до тысяч строк, строгость уступает другому подходу: CI зелёный, тесты прошли, код выглядит вроде неплохо - можно жать Approve.

продолжить чтение

Я прочитал статью про 9 AI-ревьюеров — и сломал свой бюджет на токены

Значит так. Сижу, листаю Hacker News, натыкаюсь на пост от чувака с hamy.xyz: «9 Parallel AI Agents That Review My Code». Девять. Параллельных. Агентов. Которые ревьюят код.Я разраб и пишу на Claude Code уже год. Скиллы, субагенты, worktrees - всё как у людей. И вот читаю я этот пост и думаю: ну, у меня же уже стоит Superpowers с его code-review скиллом, но он один. А тут - девять штук. Security reviewer, performance reviewer, test quality reviewer, simplification reviewer... Каждый со своей специализацией, каждый в своём контекстном окне, каждый жрёт токены как не в себя.Естественно, я решил попробовать.Что вообще придумал этот Hamy

продолжить чтение

Почему мы ненавидим AI с точки зрения науки (и моей)

На Хабре я 10+ лет как читатель. Проблема: друзья-айтишники которым есть что сказать, по моей агитации садились писать первые статьи, но из-за неопытности тексты выходили "слишком гладкими" — в комментариях прилетало "нейрослоп", минусы, и человек бросал писать навсегда. При этом в ленте полно отполированного нейрослопа с характерными маркерами, который спокойно живёт в плюсах. Система вознаграждает умеющих маскировать генерацию и наказывает пишущих самостоятельно новичков.

продолжить чтение

Anthropic выпустила инструмент для проверки ИИ-кода

Anthropic представила инструмент проверки кода на основе ИИ, предназначенный для выявления ошибок до того, как они попадут в кодовую базу программного обеспечения. Новый продукт под названием Code Review уже запустили в Claude Code.

продолжить чтение

Как я пишу адекватный код с помощью ИИ

Продолжаю беседы с нашим тимлидом Дмитрием. Сегодня о том, как ИИ врывается в мир разработки и меняет процесс написания кода. Какие можно использовать подходы, чтобы этот код в итоге был адекватным?

продолжить чтение

Как мы сделали AI code review через Ollama без облака?

TL;DR: Собрали CLI, который гоняет ревью кода на локальной LLM (Ollama): никаких API-ключей в облаке, код не уходит из машины, один diff - одна команда. В статье - зачем это нужно, как устроено и как попробовать за пять минут.ПроблемаРевью кода вручную отнимает время, а статический анализ (линтеры, SAST) ловит только то, что зашито в правила. Контекст проекта, типичные баги и «запахи» кода они не видят. Облачные AI-ревью (типа CodeRabbit) удобны, но код уходит в чужое API - для внутренних репозиториев или строгого комплаенса это не всегда ок.Хотелось чего-то среднего: умное ревью с контекстом, но полностью локально

продолжить чтение

Я обучил модель на 10 000 код-ревью, чтобы отсеять мусор. Она начала предсказывать увольнения

У нас в проекте четыреста пул-реквестов в месяц. Половина комментариев — «поправь отступ», ещё четверть — «LGTM». Я хотел научить машину отличать полезное от шума. Машина научилась. А потом я полез смотреть, где она ошибается — и три недели думал об этом перед сном.

продолжить чтение

Почему Code Review тормозит разработку и что с этим делать

Когда я слышу от команд разработки: «У нас всё хорошо с процессами, только вот ревью немного затягивается», — я понимаю, что проблема серьёзнее, чем кажется. «Немного затягивается» обычно означает, что pull request висит в очереди два-три дня, разработчик переключается на другую задачу, а когда приходит фидбек — уже забыл контекст. Потом ещё итерация, ещё одна... И вот уже неделя прошла с момента, как код был готов.Code Review

продолжить чтение

От vibe coding к Spec-Driven Development: как приручить скорость ИИ и довести проект до продакшена

Привет, Хабр! На связи Алексей Коржебин, ведущий архитектор в Управлении развития продуктов искусственного интеллекта X5 Tech. В отрасли я уже больше 30 лет. Застал времена, когда код писали на перфокартах (почти), и прошёл путь от разработки софта в разных доменах до архитектуры крупных платформ. Сейчас занимаюсь проектированием корпоративных информационных систем на базе искусственного интеллекта. Также активно внедряю технологии ИИ-агентов в процесс разработки ПО.

продолжить чтение

123
Rambler's Top100