Илья Суцкевер уверен: AGI нельзя прятать от людей. agi.. agi. Safe Superintelligence.. agi. Safe Superintelligence. илья суцкевер.. agi. Safe Superintelligence. илья суцкевер. искусственный интеллект.. agi. Safe Superintelligence. илья суцкевер. искусственный интеллект. Машинное обучение.
Илья Суцкевер уверен: AGI нельзя прятать от людей - 1

Сооснователь OpenAI и основатель Safe Superintelligence Inc. Илья Суцкевер в интервью Дваркешу Пателю рассказал о том, каким он видит оптимальный путь к AGI (искусственному общему интеллекту). Он описывает AGI как систему, способную выполнять почти любую экономически полезную работу — от программирования до научных исследований.

Суцкевер видит прото-AGI как 15-летнего подростка, который только учится “взрослой жизни”, интегрируясь в экономику и жизнь. Илья говорит о множестве копий одной и той же системы, каждая из которых работает в своей области — пишет код, анализирует медицинские данные, занимается логистикой, ведет исследования. Эти копии учатся на реальных задачах, а накопленный опыт сливается обратно в общий интеллект.

Главный тезис Ильи: как только мы приблизимся к созданию AGI, эту технологию нельзя будет прятать от людей, тихо разрабатывая в секретной лаборатории. Если первая по-настоящему сильная система появится внезапно и сразу получит доступ к огромной власти и ресурсам, у общества не будет времени ни адаптироваться, ни выстроить институты контроля. Куда безопаснее будет постепенный вывод все более способных моделей в реальную экономику — с понятными ограничениями и живой обратной связью от пользователей, бизнеса и регуляторов.

Илья считает, что будущие системы с развитым “рассуждением” и агентным поведением станут существенно менее предсказуемыми, чем сегодняшние модели, а классическое предобучение упрется в пределы по данным и должно смениться новыми подходами. На этом фоне желание “спрятать AGI до последнего” только усиливает риск — если поведение таких систем и так становится менее прозрачным, лучше, чтобы и их развитие, и обсуждение рисков проходили на виду, а не в формате секретной гонки вооружений.

Позиция Суцкевера идет вразрез с текущим трендом части индустрии, где модели становятся все более закрытыми, а доступ к ним на этапах обучения и тестирования — все жестче. Он считает, что ведущие компании должны уходить от такого подхода, а чем ближе к созданию AGI мы будем — тем активнее должен идти обмен информацией между лидерами рынка.

P.S. Поддержать меня можно подпиской на канал “сбежавшая нейросеть“, где я рассказываю про ИИ с творческой стороны.

Автор: runaway_llm

Источник

Rambler's Top100