- BrainTools - https://www.braintools.ru -

Хакатоны с ИИ: треть участников требует отдельных правил, Cursor лидирует, агентам не доверяют

Хакатоны с ИИ: треть участников требует отдельных правил, Cursor лидирует, агентам не доверяют - 1

Материал команды Codenrock. В феврале–марте 2026 мы опросили 1160 участников хакатонов из аудитории Codenrock. Параллельно сверились с глобальными исследованиями: Stack Overflow Developer Survey, JetBrains State of Developer Ecosystem и GitHub Octoverse за 2025 год. Где наша картина совпадает с мировой, а где идёт своим путём — разбираем по порядку.

30,2% хакатонщиков считают, что нынешние правила соревнований устарели и проектам с ИИ нужны отдельные критерии. 65,1% уверены, что менять правила не нужно. Мнения участников заметно разделились — и от того, в какую сторону сместится баланс, зависит, как будут выглядеть хакатоны через год.

В этой статье мы разбираем данные опроса по нескольким направлениям: где самооценка ускорения от ИИ расходится с фактами, какие инструменты выбирают разработчики и почему браузерный чат опередил IDE-интеграции, как участники относятся к автономии агентов. По ходу будем сверяться с глобальными исследованиями — где наша картина совпадает с мировой, а где отличается.

ГЛАВНОЕ В ЦИФРАХ

30,2% участников за отдельные правила оценки ИИ-проектов, 65,1% — против.

Cursor лидирует среди ИИ-ассистентов (26,7%), Claude Code — второй (18,6%).

Веб-чат — самый массовый интерфейс работы с ИИ (44,2%), IDE — 36%, CLI-агенты — 15,1%.

36% участников не дают агенту работать автономно, 29,1% доверяют цели верхнего уровня.

43% оценивают ускорение от ИИ в 100% и более — но реально запускается лишь 18,6% проектов после хакатона.

Главные проблемы: нехватка контекста (54,7%), качество (48,8%), стоимость API (31,4%).

Мнения о правилах разделились: треть против двух третей

Сейчас большинство участников — 53,5% — считают, что текущих правил оценки достаточно. Ещё 11,6% скорее против отдельных критериев. Вместе это 65,1%, и эта группа аргументирует так: ИИ — это просто новый инструмент, как Stack Overflow десять лет назад или Git двадцать. Никто же не вводил отдельные правила для команд, которые умеют гуглить.

Но 30,2% участников так не считают — почти треть выборки. Их аргумент: когда модель пишет значительную часть кода, генерирует архитектуру и собирает презентацию, оценивать такой проект по тем же критериям, что и проект, написанный руками, — нечестно по отношению к тем, кто пришёл показать инженерное мышление [1].

Распределение ответов на вопрос «Нужны ли отдельные правила оценки для проектов с ИИ?»

Распределение ответов на вопрос «Нужны ли отдельные правила оценки для проектов с ИИ?»

Самооценка ускорения и фактические результаты

43% участников считают, что ИИ ускоряет их разработку на 100% и более, ещё 37,2% оценивают ускорение примерно в 50%. Важная оговорка: это самооценка, человек отвечал по ощущению, а не по замеру. Когда мы сопоставляем эту оценку с объективными показателями выживаемости проектов, картина оказывается скромнее.

Если посмотреть на объективные показатели, картина скромнее:

  • 18,6% проектов после хакатона запускаются и используются.

  • 16,3% остаются в активной разработке.

  • 65% — прототипы, поставленные на паузу или заброшенные.

Прототипы действительно собираются быстрее: 73,3% участников выходят на рабочую версию за три дня или меньше. Но «быстрее собрать прототип» и «сделать продукт, который выживет» — две разные задачи.

А ЧТО В МИРЕ

JetBrains в State of Developer Ecosystem 2025 фиксируют похожий разрыв: 85% разработчиков регулярно используют ИИ, но только 44% реально интегрировали его в свой воркфлоу. 88% пользователей экономят минимум час в неделю, 20% — больше восьми часов. Параллельно 45% признают, что тратят на отладку ИИ-кода больше времени, чем сэкономили на его написании. Распределение бимодальное.

Контролируемое исследование METR (июль 2025) показало, что разработчики с ИИ работали на 19% медленнее, чем без него.

Из открытых ответов опроса: «ИИ отлично пишет код для идеальных условий («happy path»), но когда нужно внедрить реальную валидацию данных, обработку ошибок сети или специфическую логику [2] заказчика — приходится вручную переписывать и стабилизировать до 40% сгенерированного кода».

Самооценка ускорения разработки при использовании ИИ, % респондентов

Самооценка ускорения разработки при использовании ИИ, % респондентов

43% видят ускорение в 100%+. Запускается после хакатона — 18,6% проектов.

ML-инженеры и разработчики ПО оценивают ИИ по-разному

Если разделить выборку на две крупные подгруппы — специалистов ML/AI и разработчиков ПО — самооценка ускорения у них заметно расходится:

  • ML / AI: 61% видят ускорение на 100% и более.

  • Разработка ПО: 37% — почти вдвое меньше.

Однозначного объяснения у нас нет. Возможны две версии: либо ML-инженеры чаще решают задачи, в которых ИИ закрывает значительную часть рутины (обработка данных, генерация скриптов, бойлерплейт), а у разработчиков ПО доля ручной интеграции и обработки edge-кейсов выше. Либо дело не в задачах, а в восприятии — ML-сообщество в целом более лояльно к ИИ-инструментам. На нашей выборке отделить одно от другого нельзя.

Доля респондентов, выбравших вариант «ускорение 100% и более», по двум подгруппам

Доля респондентов, выбравших вариант «ускорение 100% и более», по двум подгруппам

Веб-чат опережает IDE-интеграции и CLI-агентов

Даже на технических соревнованиях, где собрались разработчики и ML-инженеры, самый массовый интерфейс работы с ИИ — браузерный чат. 44,2% против 36,0% у IDE-интеграций и 15,1% у CLI-агентов.

Возможных причин у такого выбора несколько: на корпоративных хакатонах часто запрещён вынос кода во внешние инструменты, и веб-интерфейс с галочкой «не использовать для обучения» — единственный согласованный способ. Чат универсален: подходит и для кода, и для текста презентации, и для поиска по документации. И главное — не требует настройки: тратить два часа из 48 на конфигурацию MCP-сервера никто не будет.

Что до конкретных ассистентов — лидируют два:

  • Cursor — 26,7%. Первое место с заметным отрывом.

  • Claude Code — 18,6%. Второе место. Распределение по подгруппам неравномерное: среди сеньоров (опыт [3] >3 лет) Claude Code на первом месте с 38%, у джунов — на четвёртом. Возможные причины: разный порог входа, привычка к CLI, доступ к оплате Anthropic API.

  • GitHub Copilot — заметно ниже. Когда-то был стандартом де-факто, теперь — один из многих.

Дальше идут DeepSeek, Codex CLI, ChatGPT, Gemini Code Assist, Qwen и десяток других решений мелкими долями. Привязка к одному поставщику в этой аудитории низкая: за последние 12 месяцев только 39,5% остались с одним инструментом. 30,2% работают сразу с несколькими, 27,9% мигрировали на новые решения.

Отдельный сюжет — DeepSeek. В основном списке ассистентов его не было, но в свободных ответах он фигурирует чаще остальных «прочих» инструментов вместе взятых: каждый третий, кто вписал свой вариант, указал именно DeepSeek. Если учитывать эти ответы, де-факто это третий по популярности инструмент в нашей выборке. Причины, по словам участников: бесплатный доступ, отсутствие проблем с оплатой из России, приемлемое качество. В глобальных исследованиях этой картины нет.

А ЧТО В МИРЕ

JetBrains AI Pulse за январь 2026: Claude Code за полгода вырос с 3% до 18% мировой аудитории разработчиков, в США и Канаде — 24%. Наши 18,6% совпадают с глобальной картиной. ChatGPT в JetBrains-исследовании за 2025 год потерял 8 пунктов (с 49% до 41%) — универсальный чат начал сдавать позиции специализированным инструментам. У нас веб-чат пока удерживает первое место, и возможные причины расхождения мы перечислили выше.

Stack Overflow Developer Survey 2025: модели OpenAI остаются самыми используемыми (81%), Anthropic Claude Sonnet — наиболее «желанная» модель года (33%) и вторая по фактическому использованию у профессионалов (45%).

Главный критерий выбора инструмента в нашей выборке — качество результата (74,4%), а не интеграции и фичи.

Распределение по основному интерфейсу работы с ИИ

Распределение по основному интерфейсу работы с ИИ

Только 39,5% за год оставались с одним поставщиком ИИ. Лояльности нет.

Автономии агентов доверяют осторожно

Параллельно с ростом интереса [4] к agentic AI данные опроса показывают сдержанное отношение участников к полной автономии:

  • 36,0% участников не дают агенту работать автономно: используют ИИ только для автодополнения и отдельных фрагментов.

  • 34,9% доверяют небольшие задачи: рефакторинг, unit-тесты, типовые куски кода.

  • 29,1% регулярно ставят агенту цель верхнего уровня и дают работать до результата.

Главная причина осторожности — не страх [5] перед новым, а нехватка контекста. 54,7% участников назвали именно это своим главным препятствием. Модель пишет изолированную функцию хорошо, но плохо понимает, как эта функция должна вписаться в архитектуру проекта. На хакатоне, где у команды 48 часов и нет времени на отладку каскадных проблем, давать агенту цель «сделай авторизацию» рискованно.

Связанные жалобы: 48,8% сложно добиться нужного качества, 45,3% регулярно ловят логические ошибки [6] моделей. На вопрос «что повысило бы продуктивность сильнее всего» первое место занял ответ «снижение непредсказуемости результатов» (48,8%) — не «больше агентности» и не «более длинный контекст», а предсказуемость поведения [7] модели.

Любопытный срез: в наших данных сеньоры (опыт более 3 лет) дают агенту автономию чаще, чем джуны — 33% против 23%. Это идёт вразрез с интуитивным «джуны полагаются на ИИ, опытные скептичны». Возможные объяснения: опытные разработчики легче валидируют результат, либо у них чаще есть оплаченный API. На нашей выборке однозначно сказать нельзя.

А ЧТО В МИРЕ

Stack Overflow Developer Survey 2025 называет главным выводом не рост использования ИИ, а падение доверия к нему. Использование выросло с 76% до 84% за год, доверие — упало с 40% до 29% (минус 11 пунктов). 66% жалуются на «решения, которые почти правильные, но не совсем». По агентам: 52% либо не используют их вообще, либо ограничиваются простыми ИИ-инструментами. Наши 36% «не дают агенту работать автономно» — практически тот же паттерн.

JetBrains: главные опасения разработчиков — качество кода (23%), ограниченное понимание сложной логики (18%), приватность (13%), нехватка контекста (10%). У нас «нехватка контекста» вышла на первое место (54,7%) — на хакатоне эта проблема острее.

Из открытых ответов опроса: «Необходимо понимание базовых моментов — для кодинга, например, алгоритмов и оценки сложности. Иначе результат будет некачественный».

Основные проблемы при работе с ИИ, доля респондентов и накопительная доля

Основные проблемы при работе с ИИ, доля респондентов и накопительная доля

Что с этим могут сделать организаторы

Текущие правила оценки писались в эпоху, когда «команда написала проект» означало именно ручную работу команды. По мере того как роль ИИ растёт, организаторам стоит задуматься, как адаптировать регламент. Мы не предлагаем универсального решения — но обозначим четыре направления, по которым уже двигаются отдельные площадки и которые имеет смысл обсудить:

  • Декларация ИИ-вклада. Команда в финальной защите коротко рассказывает, какие задачи решал ИИ, а какие — команда. Не для штрафов, а для прозрачности. Жюри само решает, как это учитывать.

  • Отдельный трек или номинация. «Лучшее инженерное решение без помощи ИИ» как опциональная категория. Это снимает напряжение у участников, которые считают нынешний формат неравным, и не запрещает ИИ для остальных.

  • Чёткое правило про автономных агентов. Можно ли давать агенту цель верхнего уровня и приходить с готовым результатом? Сейчас это серая зона. Любая внятная позиция — хоть запрет, хоть прямое разрешение — лучше умолчания.

  • Прозрачный бюджет на API. 31,4% участников жалуются на стоимость доступа к моделям. Если организатор стремится к равным условиям, он может либо предоставлять промокоды и доступы, либо явно указывать, что наличие платной подписки даёт преимущество.

Это не финальный список. Будет полезно, если в комментариях вы его дополните или предложите другие подходы.

Возможные сценарии развития

Если текущие тенденции в нашей выборке сохранятся — разделение мнений по правилам, осторожное отношение к автономии агентов, постепенное освоение новых инструментов — организаторы хакатонов могут начать пробовать декларацию ИИ-вклада или отдельные номинации с акцентом на ручной разработке. Будет ли это массовым решением или останется на уровне отдельных площадок — сейчас сказать нельзя, нужны данные за следующие 6–12 месяцев.

По инструментам однозначных прогнозов мы тоже делать не будем. Веб-чат пока удерживает первое место в нашей аудитории; в данных JetBrains за 2025 год доля ChatGPT снижается в пользу специализированных инструментов — насколько это применимо к российской аудитории, покажут следующие опросы.

С чем мы можем ошибаться: если в течение года появится агент, заметно решающий проблему контекста на больших проектах, расклад между интерфейсами может измениться быстрее, чем сейчас выглядит.

Ограничения исследования

Перечислим слабые места нашего опроса — чтобы читатель мог самостоятельно взвесить, насколько применимы выводы:

  • Выборка ограничена нашей аудиторией. В опросе приняли участие 1160 человек — участники Codenrock. У хакатонов от других площадок аудитория может отвечать иначе. Срезы по подгруппам (ML vs SW, сеньоры vs джуны) — это направление мысли, а не статистически верифицированный факт.

  • Доверительный интервал имеет значение. При таком размере выборки цифры вроде «30,2%» и «35%» могут оказаться статистически неотличимыми. Поэтому мы говорим о тенденциях, а не о точных долях, и при пересказе результатов округление до десятков процентов будет корректнее.

  • Шкала оценки ускорения смещена. В вариантах ответа было «100% и более», «50%», «25%», но не было промежуточных значений и не было «200%». Это могло сместить медианное значение вверх. Учтём в следующей волне опроса.

Основные тенденции — разделение мнений по правилам, осторожное отношение к автономии агентов, лидерство [8] веб-чата, низкая привязка к одному поставщику — согласуются с данными Stack Overflow, JetBrains и GitHub Octoverse, полученными на гораздо больших выборках.

Вопросы для обсуждения

Мы публикуем эту статью как точку входа в разговор. Несколько вопросов, на которые нам интересны ваши ответы:

  • Если бы вы организовывали хакатон сегодня — вводили бы декларацию ИИ-вклада? И в каком виде?

  • Замеряли ли вы ускорение от ИИ на своих проектах объективно — и насколько это совпадает с ощущениями?

  • Куда, по вашему опыту, движутся хакатоны: к декларациям, к раздельным трекам, к чему-то ещё?

Будем рады обоснованным возражениям и встречным данным.

Автор: DaryaZ

Источник [9]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/29773

URLs in this post:

[1] мышление: http://www.braintools.ru/thinking

[2] логику: http://www.braintools.ru/article/7640

[3] опыт: http://www.braintools.ru/article/6952

[4] интереса: http://www.braintools.ru/article/4220

[5] страх: http://www.braintools.ru/article/6134

[6] ошибки: http://www.braintools.ru/article/4192

[7] поведения: http://www.braintools.ru/article/9372

[8] лидерство: http://www.braintools.ru/article/1165

[9] Источник: https://habr.com/ru/articles/1030254/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1030254

www.BrainTools.ru

Rambler's Top100