Топ-6 лучших бесплатных нейросетей для генерации и редактирования кода
Ещё пару лет назад «ИИ для кода» означало подсказку следующей строчки. Сегодня это агент, который сам открывает pull request, пока вы пьёте кофе.
Anthropic выпустили Claude Opus 4.7
Сегодня Anthropic объявила о выходе Claude Opus 4.7. Модель стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил улучшение recall на 10% при стабильной точности, а Rakuten — трёхкратный рост решённых production-задач по сравнению с Opus 4.6.
Как кодинг-агенты используют инструменты, память и контекст репозитория, чтобы писать код лучше
Это перевод хорошей статьи про базу того, как устроены кодинг-ассистенты и что для них важно: что такое харнесс и харнесс-инжиниринг, в чем разница просто агентной обвязки и кодинговой, что такое компактизация и почему та же самая модель в консольке ощущается мощнее, чем просто в веб-чате. Сильного хардкора и больших откровений в ней нет, но это отличный материал для старта изучения архитектуры кодинг-ассистентов и лучшего понимания, как оно работает внутри.В этой статье я хочу разобрать общую архитектуру кодинг-агентов и агентных харнессов
Поиск с возвратом
Привет, Хаброжители! Мы открыли предзаказ на книгу «Паттерны Coding Interview. Подготовка к сложному техническому интервью» Алекса Сюя и Шона Гунавардана. Предлагаем ознакомиться с главой 14 «Поиск с возвратом». Основные понятияПредставьте, что вы находитесь на перекрестке в лабиринте и знаете, что один из трех маршрутов впереди ведет к выходу:
MiniMax M2.7 — самоэволюционирующая модель с упором на coding, Office-задачи и агентные сценарии
Китайская компания MiniMax 18 марта выпустила модель M2.7, которая участвовала в собственном обучении. Это не просто очередная LLM, а система, которая может автономно улучшать себя и свои процессы.Сразу на ваш суд промо-ролики:Отладка проблемы на уже работающем сервисе:M2.7 сгенерировала демо-страницу:
Год назад Claude Code не умел составить план. Сейчас у него миллион токенов и 9 субагентов
Я тут полез в свою историю промптов за март 2025. Знаете, что нашёл? Промпт на 40 строк, в котором я вручную описывал Claude структуру проекта. Какие файлы где лежат, какие зависимости, где конфиг. Потому что он не мог посмотреть сам.Год назад. Март 2025. Claude Code - бета, версия 0.2.что-то-там. Ни plan mode, ни субагентов, ни CLAUDE.md, ни skills. Контекст - 200 тысяч токенов, и это считалось нормальным. Codex CLI не существовал. Gemini CLI не существовал. Copilot умел автокомплит и чат в сайдбаре.
Cursor представили Automations — систему для облачных ИИ-агентов, которые работают постоянно, без ручного запуска
Cursor представили Automations, агентов можно запускать по расписанию или по событиям из Slack, GitHub, Linear, а для кастомных сценариев использовать webhooks и ваши MCP. Видео перевела в Elevenlabs для вашего удобства.Что умеют:• поднимают отдельную cloud sandbox под каждую задачу• подключаются к вашим MCP и работают с нужными моделями• сами перепроверяют результат• запоминают прошлые запуски через memory tool и постепенно работают лучше
Был ли вайб-кодинг уловкой? Как компании использовали ИИ для увольнений
"Вайб-кодинг – это кошмар, и я готовлюсь его запретить", – сказал "Клинт", технический директор среднего финтех-стартапа.Он не шутит.
ИИ-ассистенты: как AI делит рынок разработки
Команда AI for Devs подготовила перевод статьи о том, как быстро растущие AI-ассистенты меняют саму природу разработки. Их код выглядит безупречно — но всё чаще решает не ту задачу, что стоит перед нами. Где проходит граница между ускорением и самообманом, и какую новую ответственность это накладывает на инженеров?В начале 1950-х Грейс Хоппер ввела термин «компилятор» и создала одну из первых его версий — систему A-0
Ловушка искусственного интеллекта: действительно ли AI позволяет писать код быстрее
Когда использование инструмента грозит потерей качества. Думаете, что AI ускорил работу с кодом? А вы измеряли?Мы разобрали восемь крупных исследований на тему использования AI в разработке — и везде разные цифры. Одни показывают ускорение, другие замедление, третьи — проблемы с качеством. Нюанс в том, что сравнивать нужно не только скорость, но и качество кода, время на дебаггинг и код-ревью. Потому что функция может генерироваться за десять минут, но если ревьювер возвращает ее три раза, а баг всплывает через месяц — где ускорение?

