Gemini за полчаса решила то, что не осилили топовые студенты-программисты на олимпиаде. agi.. agi. gemini.. agi. gemini. Gemini 2.5 Deep Think.. agi. gemini. Gemini 2.5 Deep Think. gemini ai.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025. искусственный интеллект.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025. искусственный интеллект. Машинное обучение.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025. искусственный интеллект. Машинное обучение. общий искусственный интеллект.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025. искусственный интеллект. Машинное обучение. общий искусственный интеллект. олимпиада для студентов.. agi. gemini. Gemini 2.5 Deep Think. gemini ai. icpc 2025. искусственный интеллект. Машинное обучение. общий искусственный интеллект. олимпиада для студентов. Программирование.

В сентябре нейросети «обскакали» студентов на Международной студенческой олимпиаде по программированию в Баку. Они были во внеконкурсе, но если бы участвовали на общей основе, то GPT-5 заняла бы первое место, решив 12 заданий из 12, а Gemini 2.5 Deep Think — второе с 10 заданиями из 12. И самое интересное: всего за полчаса «гугловская» нейросеть справилась с задачей «C», которую не смогла решить ни одна из человеческих команд. 

Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета zerocoder.ru. Поговорим о прорыве, совершенном Google DeepMind, и о том, можно ли это вообще считать прорывом. 

Что случилось

Международная студенческая олимпиада по программированию, она же International Collegiate Programming Contest, ICPC, — это крупнейшее и старейшее студенческое соревнование по спортивному программированию, которое в своем текущем виде проводится с 1977 года. Участники в командах по три человека решают алгоритмические задачи на время, используя только один компьютер, так что в этом деле огромное значение имеют не только знания, но и работа в команде. Сегодня ICPC считается «чемпионатом мира» по программированию среди студентов и служит стартовой площадкой для многих будущих инженеров ведущих IT-компаний.

Нейросети принимают участие в состязании «вне конкурса», по крайней мере, пока. И в этом году GPT-5 и Gemini 2.5 Deep Think проявили себя лучше, чем все человеческие конкурсанты, включая топовых участников из России, Китая и Японии. 

Что студенты не смогли решить, так это задание «C». Оно требовало найти способ распределить жидкость по сети взаимосвязанных каналов к нескольким резервуарам с целью подобрать такую конфигурацию каналов, которая заполнит все резервуары как можно быстрее. Каждый канал мог быть открыт, закрыт или приоткрыт, так что возможных вариантов решения было бесконечно много, что и делало задачу настолько сложной. 

И действительно — задачка оказалась сложновата. Зато ее решили GPT-5 и Gemini 2.5 Deep Think, причем последняя справилась за полчаса. 

Gemini за полчаса решила то, что не осилили топовые студенты-программисты на олимпиаде - 1

График показывает, как быстро нейросеть от Gemini решала каждое из 12 заданий. Все задачи, кроме E и J, были решены нейросетью с одной попытки. С B и G она не справилась. 

Как решила задачу Gemini 2.5 Deep Think

Gemini предположила, что у каждого резервуара есть значение, отражающее, с каким приоритетом он должен обслуживаться в сравнении с другими. Потом, исходя из своего предположения, Gemini пришла к выводу, что наилучшую конфигурацию каналов можно найти при помощи алгоритма динамического программирования — достаточно задать набор приоритетов. Затем наш искусственный интеллект применил теорему минимакса, сведя исходную задачу к поиску таких приоритетных значений, при которых результирующий поток оказывается наиболее ограниченным. Используя взаимосвязь между приоритетами и оптимальными потоками, Gemini применила вложенный тернарный поиск для быстрого нахождения оптимальных значений приоритетов в «чашеобразном» выпуклом пространстве решений. На этом задание C было решено. 

Что это значит

С одной стороны, компьютерные мощности оказались «умнее» студентов, или такое могло сложиться впечатление. С другой стороны, это демонстрирует способности нейросети как идеального партнера для программистов. Как пишут в блоге DeepMind, «если бы лучшие человеческие и ИИ-решения были объединены в рамках состязания, все 12 задач были бы решены полностью и корректно. Это показывает потенциал, который есть у искусственного интеллекта в деле предоставления уникальных, новаторских решений, которые дополняют скиллы и знания человеческих экспертов». 

Согласно данным от Google, в соревновании участвовала нейросеть Gemini общего назначения, но специально натренированная решать сложные программистские и математические задачи. Они же называют свой ИИ «историческим шагом в сторону AGI», то есть, общего искусственного интеллекта. 

Считать ли это прорывом

Практически каждый успех нейросетей сейчас называют «шагом на пути к AGI». Сам концепт AGI стал неким недостижимым идеалом, к которому стремятся абсолютно все разработчики искусственного интеллекта. И пока достичь его не удалось — и остается вопрос, удастся ли, — все достижения ИИ будут считаться шагом по направлению к мечте. 

Это не первый раз, когда компьютеры побеждают человека на состязаниях. Все мы помним историческое сражение Гарри Каспарова с компьютером Deep Blue от IBM в 1997 году. Тогда Каспаров победил в первой игре, компьютер одолел его во второй, следом шли три «ничьи», и в шестой игре Big Blue закрепил свою победу. Тогда это продемонстрировало, что компьютеры способны выиграть у человека, пусть и в достаточно узком профиле. 

Похожая ситуация сложилась и в 2016 году с системой AlphaGo от DeepMind, натренированной играть в го — одну из самых сложных из всех созданных человечеством игр. Тогда AlphaGo выиграла со счетом 4-1 у признанного мастера игры в го, южнокорейского профессионала Ли Седоля. 

И теперь мы получили 2025 год и победу на крупнейшем студенческом соревновании по программированию. Пусть и во внеконкурсе. 

Хотя говорить о «шаге к AGI» довольно поспешно, результаты Gemini действительно впечатляют. Два года назад я проверял, сможет ли GPT-4 поступить в МГУ, причем использовал самый обычный чат-бот, не натренированный специально решать математические упражнения. Мой маленький эксперимент показал, что в вуз нейросеть не поступила бы, но вполне закрыла бы аттестат на «хорошо» по школьным знаниям. Интересно было бы повторить свой эксперимент еще раз — теперь с GPT-5 или героиней сегодняшней статьи Gemini 2.5 Deep Think. Вполне возможно, что им удалось бы пройти на мехмат. 

А что вы думаете по этому поводу? Можно ли считать победу Gemini на ICPC шагом по направлению к AGI, и вообще, честно ли сравнивать компьютеры и человека, когда дело касается состязаний по программированию? 

Автор: kpshinnik

Источник

Rambler's Top100