
Материал команды Codenrock. В феврале–марте 2026 мы опросили 1160 участников хакатонов из аудитории Codenrock. Параллельно сверились с глобальными исследованиями: Stack Overflow Developer Survey, JetBrains State of Developer Ecosystem и GitHub Octoverse за 2025 год. Где наша картина совпадает с мировой, а где идёт своим путём — разбираем по порядку.
30,2% хакатонщиков считают, что нынешние правила соревнований устарели и проектам с ИИ нужны отдельные критерии. 65,1% уверены, что менять правила не нужно. Мнения участников заметно разделились — и от того, в какую сторону сместится баланс, зависит, как будут выглядеть хакатоны через год.
В этой статье мы разбираем данные опроса по нескольким направлениям: где самооценка ускорения от ИИ расходится с фактами, какие инструменты выбирают разработчики и почему браузерный чат опередил IDE-интеграции, как участники относятся к автономии агентов. По ходу будем сверяться с глобальными исследованиями — где наша картина совпадает с мировой, а где отличается.
ГЛАВНОЕ В ЦИФРАХ
▸ 30,2% участников за отдельные правила оценки ИИ-проектов, 65,1% — против.
▸ Cursor лидирует среди ИИ-ассистентов (26,7%), Claude Code — второй (18,6%).
▸ Веб-чат — самый массовый интерфейс работы с ИИ (44,2%), IDE — 36%, CLI-агенты — 15,1%.
▸ 36% участников не дают агенту работать автономно, 29,1% доверяют цели верхнего уровня.
▸ 43% оценивают ускорение от ИИ в 100% и более — но реально запускается лишь 18,6% проектов после хакатона.
▸ Главные проблемы: нехватка контекста (54,7%), качество (48,8%), стоимость API (31,4%).
Мнения о правилах разделились: треть против двух третей
Сейчас большинство участников — 53,5% — считают, что текущих правил оценки достаточно. Ещё 11,6% скорее против отдельных критериев. Вместе это 65,1%, и эта группа аргументирует так: ИИ — это просто новый инструмент, как Stack Overflow десять лет назад или Git двадцать. Никто же не вводил отдельные правила для команд, которые умеют гуглить.
Но 30,2% участников так не считают — почти треть выборки. Их аргумент: когда модель пишет значительную часть кода, генерирует архитектуру и собирает презентацию, оценивать такой проект по тем же критериям, что и проект, написанный руками, — нечестно по отношению к тем, кто пришёл показать инженерное мышление.
Самооценка ускорения и фактические результаты
43% участников считают, что ИИ ускоряет их разработку на 100% и более, ещё 37,2% оценивают ускорение примерно в 50%. Важная оговорка: это самооценка, человек отвечал по ощущению, а не по замеру. Когда мы сопоставляем эту оценку с объективными показателями выживаемости проектов, картина оказывается скромнее.
Если посмотреть на объективные показатели, картина скромнее:
-
18,6% проектов после хакатона запускаются и используются.
-
16,3% остаются в активной разработке.
-
65% — прототипы, поставленные на паузу или заброшенные.
Прототипы действительно собираются быстрее: 73,3% участников выходят на рабочую версию за три дня или меньше. Но «быстрее собрать прототип» и «сделать продукт, который выживет» — две разные задачи.
А ЧТО В МИРЕ
JetBrains в State of Developer Ecosystem 2025 фиксируют похожий разрыв: 85% разработчиков регулярно используют ИИ, но только 44% реально интегрировали его в свой воркфлоу. 88% пользователей экономят минимум час в неделю, 20% — больше восьми часов. Параллельно 45% признают, что тратят на отладку ИИ-кода больше времени, чем сэкономили на его написании. Распределение бимодальное.
Контролируемое исследование METR (июль 2025) показало, что разработчики с ИИ работали на 19% медленнее, чем без него.
Из открытых ответов опроса: «ИИ отлично пишет код для идеальных условий («happy path»), но когда нужно внедрить реальную валидацию данных, обработку ошибок сети или специфическую логику заказчика — приходится вручную переписывать и стабилизировать до 40% сгенерированного кода».
43% видят ускорение в 100%+. Запускается после хакатона — 18,6% проектов.
ML-инженеры и разработчики ПО оценивают ИИ по-разному
Если разделить выборку на две крупные подгруппы — специалистов ML/AI и разработчиков ПО — самооценка ускорения у них заметно расходится:
-
ML / AI: 61% видят ускорение на 100% и более.
-
Разработка ПО: 37% — почти вдвое меньше.
Однозначного объяснения у нас нет. Возможны две версии: либо ML-инженеры чаще решают задачи, в которых ИИ закрывает значительную часть рутины (обработка данных, генерация скриптов, бойлерплейт), а у разработчиков ПО доля ручной интеграции и обработки edge-кейсов выше. Либо дело не в задачах, а в восприятии — ML-сообщество в целом более лояльно к ИИ-инструментам. На нашей выборке отделить одно от другого нельзя.
Веб-чат опережает IDE-интеграции и CLI-агентов
Даже на технических соревнованиях, где собрались разработчики и ML-инженеры, самый массовый интерфейс работы с ИИ — браузерный чат. 44,2% против 36,0% у IDE-интеграций и 15,1% у CLI-агентов.
Возможных причин у такого выбора несколько: на корпоративных хакатонах часто запрещён вынос кода во внешние инструменты, и веб-интерфейс с галочкой «не использовать для обучения» — единственный согласованный способ. Чат универсален: подходит и для кода, и для текста презентации, и для поиска по документации. И главное — не требует настройки: тратить два часа из 48 на конфигурацию MCP-сервера никто не будет.
Что до конкретных ассистентов — лидируют два:
-
Cursor — 26,7%. Первое место с заметным отрывом.
-
Claude Code — 18,6%. Второе место. Распределение по подгруппам неравномерное: среди сеньоров (опыт >3 лет) Claude Code на первом месте с 38%, у джунов — на четвёртом. Возможные причины: разный порог входа, привычка к CLI, доступ к оплате Anthropic API.
-
GitHub Copilot — заметно ниже. Когда-то был стандартом де-факто, теперь — один из многих.
Дальше идут DeepSeek, Codex CLI, ChatGPT, Gemini Code Assist, Qwen и десяток других решений мелкими долями. Привязка к одному поставщику в этой аудитории низкая: за последние 12 месяцев только 39,5% остались с одним инструментом. 30,2% работают сразу с несколькими, 27,9% мигрировали на новые решения.
Отдельный сюжет — DeepSeek. В основном списке ассистентов его не было, но в свободных ответах он фигурирует чаще остальных «прочих» инструментов вместе взятых: каждый третий, кто вписал свой вариант, указал именно DeepSeek. Если учитывать эти ответы, де-факто это третий по популярности инструмент в нашей выборке. Причины, по словам участников: бесплатный доступ, отсутствие проблем с оплатой из России, приемлемое качество. В глобальных исследованиях этой картины нет.
А ЧТО В МИРЕ
JetBrains AI Pulse за январь 2026: Claude Code за полгода вырос с 3% до 18% мировой аудитории разработчиков, в США и Канаде — 24%. Наши 18,6% совпадают с глобальной картиной. ChatGPT в JetBrains-исследовании за 2025 год потерял 8 пунктов (с 49% до 41%) — универсальный чат начал сдавать позиции специализированным инструментам. У нас веб-чат пока удерживает первое место, и возможные причины расхождения мы перечислили выше.
Stack Overflow Developer Survey 2025: модели OpenAI остаются самыми используемыми (81%), Anthropic Claude Sonnet — наиболее «желанная» модель года (33%) и вторая по фактическому использованию у профессионалов (45%).
Главный критерий выбора инструмента в нашей выборке — качество результата (74,4%), а не интеграции и фичи.
Только 39,5% за год оставались с одним поставщиком ИИ. Лояльности нет.
Автономии агентов доверяют осторожно
Параллельно с ростом интереса к agentic AI данные опроса показывают сдержанное отношение участников к полной автономии:
-
36,0% участников не дают агенту работать автономно: используют ИИ только для автодополнения и отдельных фрагментов.
-
34,9% доверяют небольшие задачи: рефакторинг, unit-тесты, типовые куски кода.
-
29,1% регулярно ставят агенту цель верхнего уровня и дают работать до результата.
Главная причина осторожности — не страх перед новым, а нехватка контекста. 54,7% участников назвали именно это своим главным препятствием. Модель пишет изолированную функцию хорошо, но плохо понимает, как эта функция должна вписаться в архитектуру проекта. На хакатоне, где у команды 48 часов и нет времени на отладку каскадных проблем, давать агенту цель «сделай авторизацию» рискованно.
Связанные жалобы: 48,8% сложно добиться нужного качества, 45,3% регулярно ловят логические ошибки моделей. На вопрос «что повысило бы продуктивность сильнее всего» первое место занял ответ «снижение непредсказуемости результатов» (48,8%) — не «больше агентности» и не «более длинный контекст», а предсказуемость поведения модели.
Любопытный срез: в наших данных сеньоры (опыт более 3 лет) дают агенту автономию чаще, чем джуны — 33% против 23%. Это идёт вразрез с интуитивным «джуны полагаются на ИИ, опытные скептичны». Возможные объяснения: опытные разработчики легче валидируют результат, либо у них чаще есть оплаченный API. На нашей выборке однозначно сказать нельзя.
А ЧТО В МИРЕ
Stack Overflow Developer Survey 2025 называет главным выводом не рост использования ИИ, а падение доверия к нему. Использование выросло с 76% до 84% за год, доверие — упало с 40% до 29% (минус 11 пунктов). 66% жалуются на «решения, которые почти правильные, но не совсем». По агентам: 52% либо не используют их вообще, либо ограничиваются простыми ИИ-инструментами. Наши 36% «не дают агенту работать автономно» — практически тот же паттерн.
JetBrains: главные опасения разработчиков — качество кода (23%), ограниченное понимание сложной логики (18%), приватность (13%), нехватка контекста (10%). У нас «нехватка контекста» вышла на первое место (54,7%) — на хакатоне эта проблема острее.
Из открытых ответов опроса: «Необходимо понимание базовых моментов — для кодинга, например, алгоритмов и оценки сложности. Иначе результат будет некачественный».
Что с этим могут сделать организаторы
Текущие правила оценки писались в эпоху, когда «команда написала проект» означало именно ручную работу команды. По мере того как роль ИИ растёт, организаторам стоит задуматься, как адаптировать регламент. Мы не предлагаем универсального решения — но обозначим четыре направления, по которым уже двигаются отдельные площадки и которые имеет смысл обсудить:
-
Декларация ИИ-вклада. Команда в финальной защите коротко рассказывает, какие задачи решал ИИ, а какие — команда. Не для штрафов, а для прозрачности. Жюри само решает, как это учитывать.
-
Отдельный трек или номинация. «Лучшее инженерное решение без помощи ИИ» как опциональная категория. Это снимает напряжение у участников, которые считают нынешний формат неравным, и не запрещает ИИ для остальных.
-
Чёткое правило про автономных агентов. Можно ли давать агенту цель верхнего уровня и приходить с готовым результатом? Сейчас это серая зона. Любая внятная позиция — хоть запрет, хоть прямое разрешение — лучше умолчания.
-
Прозрачный бюджет на API. 31,4% участников жалуются на стоимость доступа к моделям. Если организатор стремится к равным условиям, он может либо предоставлять промокоды и доступы, либо явно указывать, что наличие платной подписки даёт преимущество.
Это не финальный список. Будет полезно, если в комментариях вы его дополните или предложите другие подходы.
Возможные сценарии развития
Если текущие тенденции в нашей выборке сохранятся — разделение мнений по правилам, осторожное отношение к автономии агентов, постепенное освоение новых инструментов — организаторы хакатонов могут начать пробовать декларацию ИИ-вклада или отдельные номинации с акцентом на ручной разработке. Будет ли это массовым решением или останется на уровне отдельных площадок — сейчас сказать нельзя, нужны данные за следующие 6–12 месяцев.
По инструментам однозначных прогнозов мы тоже делать не будем. Веб-чат пока удерживает первое место в нашей аудитории; в данных JetBrains за 2025 год доля ChatGPT снижается в пользу специализированных инструментов — насколько это применимо к российской аудитории, покажут следующие опросы.
С чем мы можем ошибаться: если в течение года появится агент, заметно решающий проблему контекста на больших проектах, расклад между интерфейсами может измениться быстрее, чем сейчас выглядит.
Ограничения исследования
Перечислим слабые места нашего опроса — чтобы читатель мог самостоятельно взвесить, насколько применимы выводы:
-
Выборка ограничена нашей аудиторией. В опросе приняли участие 1160 человек — участники Codenrock. У хакатонов от других площадок аудитория может отвечать иначе. Срезы по подгруппам (ML vs SW, сеньоры vs джуны) — это направление мысли, а не статистически верифицированный факт.
-
Доверительный интервал имеет значение. При таком размере выборки цифры вроде «30,2%» и «35%» могут оказаться статистически неотличимыми. Поэтому мы говорим о тенденциях, а не о точных долях, и при пересказе результатов округление до десятков процентов будет корректнее.
-
Шкала оценки ускорения смещена. В вариантах ответа было «100% и более», «50%», «25%», но не было промежуточных значений и не было «200%». Это могло сместить медианное значение вверх. Учтём в следующей волне опроса.
Основные тенденции — разделение мнений по правилам, осторожное отношение к автономии агентов, лидерство веб-чата, низкая привязка к одному поставщику — согласуются с данными Stack Overflow, JetBrains и GitHub Octoverse, полученными на гораздо больших выборках.
Вопросы для обсуждения
Мы публикуем эту статью как точку входа в разговор. Несколько вопросов, на которые нам интересны ваши ответы:
-
Если бы вы организовывали хакатон сегодня — вводили бы декларацию ИИ-вклада? И в каком виде?
-
Замеряли ли вы ускорение от ИИ на своих проектах объективно — и насколько это совпадает с ощущениями?
-
Куда, по вашему опыту, движутся хакатоны: к декларациям, к раздельным трекам, к чему-то ещё?
Будем рады обоснованным возражениям и встречным данным.
Автор: DaryaZ


