- BrainTools - https://www.braintools.ru -
Современный AI не может накапливать интеллект [1] со временем — каждый навык приобретается ценой забывания [2] других. Это архитектурный тупик, а не вопрос масштаба.
Количество параметров нейросетей уходит в бесконечность. Чипы дорожают. Масштабирование продолжается. Илон Маск обещает рождение AGI к концу этого года. И единственный лимит, который он видит, это количество доступной энергии и сами чипы.
Любая нейросеть (включая LLM) — это статическая функция, которая аппроксимирует распределение вероятностей следующего состояния (токена) по данным прошлого опыта [3], зафиксированного в весах. Это простое предсказание следующего токена оказалось революцией, когда вышел chatGPT4. И стало казаться, что именно на этих принципах работает и наш мозг [4]. Ну а если даже не на этих, то какая разница, если оно может делать то же самое, что и наш интеллект?
LLM не думает, не учится и не помнит во время работы — она лишь применяет заранее сжатый опыт, замороженный в параметрах.
LLM = f(context, weights) → next token,
где weights — прошлое, а context — краткосрочный костыль вместо памяти [5].
То есть ограничением любой LLM является даже не количество параметров, теоретически их можно увеличивать до бесконечности.
Параметры — это замороженное прошлое
Их можно увеличивать бесконечно
Но они не меняются во время мышления [6]
И даже не контекст, хотя он по факту является ещё большим ограничением, он уже точно не может стремиться к бесконечности.
Контекст — это:
единственное «временное окно памяти»
линейное
дорогое
стираемое при каждом новом запросе (как минимум старая часть)
То есть модель:
не помнит, а получает подсказку
не накапливает опыт, а симулирует его наличие
Если знание не попало в веса, оно не существует.
Если знание в контексте — оно временное и не интегрировано.
Но это все ерунда, потому что реальным ограничением является отсутствие собственного долговременного изменяемого состояния во время инференса, то есть во время взаимодействия.
В кратце, мозг человека [7] меняется во время взаимодействия со средой, физически меняется. Строятся новые связи и разрушаются старые. Мозг нейросети заморожен до следующего переобучения (параметры), которое занимает много времени и требует много денег.
Костылем к этому является fine-tune, то есть дообучение нейросети на своей области, но оно тоже дорогое и времязатратное.
И главное, оба варианты могут привести к ухудшению качества генерации. Этот цикл дорогой и в дарвиновской эволюции такой мозг бы умер первым, потому что борьба шла иногда за миллисекунды.
Выживал мозг, который не умнее (довольно абстрактное понятие), а мозг, который быстрее выдал решение, которое сработало.
У нейросети нет такого дарвиновского давления и отбора. Его уж точно нет в реальном времени, если даже рассматривать соревнование сетей в бенчмарках как отбор.
Предельная точка:
модели станут очень хорошими инструментами
они будут писать код, планировать, рассуждать
но не будут агентами в сильном смысле
Агент без устойчивого внутреннего мира — это скрипт с интеллектом, а не интеллект с волей
Текущая архитетура не создают когнитивного времени. Модель остаётся: реактивной, а не развивающейся. Поэтому SkyNet нам пока не светит :-)
Значит, неизбежно для достижения AGI необходимо создать дарвиновский отбор, и нужно поменять архитектуру нейросети, чтобы веса могли меняться в реальном времени, без переобучения и без fine-tune, просто во время чата.
Такой архитектуры пока нет.
Единственный вариант создания AGI при текущей архитектуре – это Agentic AI, то есть набор агентов над нейросетями, которые меняют свое состояние после контакта с реальностью. И так как агент – это по сути просто промпт + контекст над нейросетью, то менять его поведение [8] очень легко в реальном времени, просто меняя промпт.
Еще одно важное условие – агенты должны общаться без протокола. Иначе мы опять получаем тупой “if x then y”. У агентов должно быть общее когнитивное пространство. И должна быть эволюция [9] по Дарвину.
Agentic AI + нет протокола + эволюция по Дарвину – это по сути нейрокортекс над нейросетью. Нейросеть здесь выступает в роли древнего мозга.
Мы уже внедряем такие подходы в компаниях, пока без эволюции по Дарвину, но это неизбежный следующий шаг. Подробнее тут [10].
Transformer — это статическая функция.
Обучение [11] происходит:
оффлайн
батчами
через глобальную оптимизацию
Это фундаментально несовместимо с:
непрерывным обучением
многоцелевой адаптацией
саморазвитием
Тупик Джона Кармака:
Текущие модели не накапливают опыт — они его перезаписывают.
Если модель:
научилась игре A
затем обучается игре B
она деградирует в A
Это означает: обучение = переписывание весов, а не расширение когнитивной структуры.
Человеческий интеллект так не работает.
Надо либо искать другую архитектуру, чем занимается John Carmack. Почитайте про его эксперименты – он уже пришел к такому же выводу. Например, обучение нейросети играть в игру занимает три дня, обучение этой же нейросети играть в другую похожую игру занимает семь дней. Мозг так не работает.
Реалистичный вариант – это буст в развитии Agentic AI, в котором еще можно сделать квантовый скачок, избавившись от текущих if-then фреймворков типа LangChain.
Фантастический вариант это новая архитектура нейронок. В этот вариант вложили только $20 миллионов. А в маcштабирование текущих уже триллионы долларов.
Необходимо прекращать гонку вооружений в погоне за чипами и параметрами, и вкладывать больше денег в новую архитектуру (тут вообще нет гарантий), и в Agentic AI в виде неокортекса над нейронками (это легче сделать).
Автор: AlexErf13
Источник [12]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/24755
URLs in this post:
[1] интеллект: http://www.braintools.ru/article/7605
[2] забывания: http://www.braintools.ru/article/3931
[3] опыта: http://www.braintools.ru/article/6952
[4] мозг: http://www.braintools.ru/parts-of-the-brain
[5] памяти: http://www.braintools.ru/article/4140
[6] мышления: http://www.braintools.ru/thinking
[7] мозг человека: http://www.braintools.ru/article/7543
[8] поведение: http://www.braintools.ru/article/9372
[9] эволюция: http://www.braintools.ru/article/7702
[10] тут: https://t.me/+w9_Kc7sUTXw3MGZi
[11] Обучение: http://www.braintools.ru/article/5125
[12] Источник: https://habr.com/ru/articles/989054/?utm_source=habrahabr&utm_medium=rss&utm_campaign=989054
Нажмите здесь для печати.