- BrainTools - https://www.braintools.ru -

AGI: почему его не будет, и какую модель мы можем сделать вместо него?

AGI: почему его не будет, и какую модель мы можем сделать вместо него? - 1

Эта статья логическое продолжение моей статьи [1] про AGI. И сегодня я хочу рассказать, почему AGI, про который нам рассказывают, невозможен и что мы можем предложить вместо этого.

Напомню, что AGI – общий искусственный интеллект [2], который способен на самостоятельное обучение [3] и решение задач, под которые не был заточен. Полная автономия и самостоятельность.

AGI это следующий этап развития ИИ. Подобная модель сможет самостоятельно изучать и решать задачи, совершать новые научные открытия, и в принципе это таблетка от всех проблем. По крайней мере, так считают современные техногиганты, в особенности Илон Маск или Сэм Альтман, которые яро пропагандируют идеи AGI и вот-вот обещают выпустить подобную модель. Но, к сожалению или к счастью, это невозможно, и вот почему.

Создать AGI невозможно?

Если понимать AGI как абсолютного решателя любых задач — да, это невозможно математически [4].

В мае 2025 года вышло научное доказательство [5] одного профессора прикладных наук Макса Шлерета. В своей статье он выдвинул фундаментальный аргумент против возможности создания AGI. Речь идет о барьере бесконечного выбора.

Суть заключается в том, что существуют задачи, количество решений которых достигает бесконечности. А бесконечный выбор приводит к бесконечным вычислительным ресурсам. Это и делает AGI невозможным. А также невозможность AGI подтверждается эмпирическими данными, такими как исследования [6]Apple, DeepMind, OpenAI и Anthropic.

AGI, способный к автономному творчеству [7] и решению абсолютно любых задач, сталкивается с ситуациями, где пространство возможных решений или интерпретаций стремится к бесконечности. Простыми словами, модель прекрасно решает задачи в рамках своей предметной области, но абсолютно не способна к трансцендентности, к познанию через чувствительный опыт [8].

Один из ключевых барьеров для AGI – неспособность к трансценденции фрейма, то есть к выходу за пределы заданной модели. Яркий пример – переход от ньютоновской механики к теории относительности. Когда эксперименты выявили расхождения с классическими предсказаниями, решение нашлось не в рамках старой теории, а через введение принципиально нового понятия – инвариантности скорости света. Алгоритм же не может самостоятельно обнаружить ограниченность своей модели: для него аномалии выглядят либо как шум, либо как ошибки [9] данных. Он не способен создать новый семантический примитив, меняющий сами правила игры.

Для гарантированного нахождения оптимального решения в бесконечном пространстве потребуются бесконечные вычислительные ресурсы и время. Следовательно, AGI физически невозможен математически и логически.

А должен ли интеллект быть абсолютным оптимизатором? Человек, например, работает иначе. Мы не перебираем все варианты – мы используем эвристики, опыт и контекст.

Давайте проведем аналогию с нашим мозгом [10]:

  1. Мы сразу отсекаем бессмысленные варианты, даже не рассматривая их

  2. Ориентируемся на прошлый опыт и действуем по аналогии

  3. Принимаем благоразумные решения, а не ищем математически оптимальные

  4. Опираемся на сенсорный опыт и интуицию [11]

Мы не решаем абстрактные задачи в статическом вакууме, где все факторы известны заранее и ничего не меняется. Мы решаем задачи в динамической реальности, где условия могут поменяться в любую секунду – и наше решение должно это учитывать.

И поэтому аргумент Шлерета не приговор, а лишь ограничения, которые наложили на разработку.

Вычислительная проблема

Некоторые ученные, например, Сундар Пичаи, гендеректор Google, считает, что AGI будет крайне сложно создать на современном железе [12].

Здесь оценка строится от идеи масштабирования, а рост параметров LLM имеет экспоненциальную стоимость. Например, Llama 3.1 405B обучалась на 810 ГБ VRAM и энергозатратами, сравнимыми с годовым потреблением небольшого города. А мы говорим о триллионах параметров? О десятках триллионов?

Это тупиковый путь не только логически, но и экономически. Масштабирование LLM – это гонка за убывающей отдачей, где каждый следующий процент интеллектуальности будет стоить в ге��метрической прогрессии дороже, не приближая нас к настоящему пониманию. У этого подхода имеется физический и финансовый потолок.

Экономическая проблема

Резкий рост требований к железу и энергии напрямую ведёт к гипернакачке инвестициями. Прогнозы рисуют футуристические картины: объём рынка ИИ к 2030 году достигнет $4,8 трлн, а технологии затронут 40% рабочих мест [13].

История повторяется, из ИИ раздули такой же пузырь, как в свое время из доткомов. Но проблема не в количестве денег, а в том, куда они идут. Интернет переоценили в моменте и не оценили его в долгосроке. Сейчас жизнь без интернета буквально невозможна.

Если пузырь лопнет, то инвестиции в ИИ просто исчезнут. Деньги уйдут, стартапы закроются, исследования свернут. Но в долгосрочной перспективе это может оказаться огромным плюсом. Закончится гонка параметров, которая сейчас пожирает все ресурсы. Те, кто останутся на поле, это либо нишевые игроки с реальными продуктами, либо исследователи, которым не нужно гнаться за GPT-7 и собирать кластеры на миллион и одну видеокарту.

Именно тогда появится пространство для экспериментов с новыми архитектурами. Не потому, что деньги волшебным образом перетекут в правильные проекты, а потому что кончится безумие, когда деньги получает тот, у кого больше параметров.

Главная задача, не выплеснуть ребенка вместе с водой. Если пузырь лопнет слишком сильно, вместе с деньгами на масштабирование умрет и финансирование фундаментальных исследований. А без них исследования умрут.

Привет человек

Считаю, что с AGI история повторится. Сейчас идет постоянный рост LLM-моделей. И когда они будут уже не на 660 млрд параметров, а на триллион и больше, их просто назовут AGI. Никакого качественного скачка не произойдет – просто очередной ребрендинг, как это уже было с «экспертными системами» вместо ИИ или «машинным обучением» вместо нейросетей.

Но понимания у таких моделей не появится. Это будет очень умный и очень дорогой попугай. Просто теперь он будет говорить так убедительно, что люди примут его за разумного.

И здесь мы упираемся в другой вопрос – даже если мы назовем это AGI, сможет ли такой инструмент решать задачи, требующие человеческого участия?

Есть один социальный аспект, а точнее – вопрос о человечности как таковой. AGI (или то, что им назовут) – это не таблетка от всех проблем, а мощный инструмент. Но сможет ли этот инструмент давать благоразумные решения без эмпатии? Должна ли быть у него эмпатия?

В 1966 году в Великобритании появилась Элиза, чат-бот, который имитировал работу психотерапевта. Она работала по простейшему принципу: сопоставление образцов и подстановка готовых фраз. На любой запрос пользователя у нее был шаблонный ответ. И люди верили ей. Они раскрывались, плакали, благодарили психотерапевта, который просто перефразировал их же слова.

И здесь мы попали в красивый тупик:

  • Если AGI не нужна человечность, то мы теряем суть. Он не сможет решать все задачи. Он не справится с задачами, где нужны эмоции [14], эмпатия или понимание человеческой природы. Психология, воспитание, дипломатия, управление людьми (менеджмент), всё это не наш случай. А значит, это не AGI, а просто очень умный, но бесполезный в человеческих делах калькулятор.

  • Если мы наделяем AGI человечностью, то это уже не инструмент, а субъект. А субъекты имеют собственные интересы. И нет никаких гарантий, что наши интересы совпадут.

Раскрытие проблемы нужно искать где-то в середине, в философии. Сначала нужно понять в принципе, что такое интеллект.

А что теперь? Что там с архитектурой?

Давайте сразу обозначим, я хочу создать понимающую модель, а не AGI. Модель, которая понимает, что она делает, и далее просто развивать функционал и наращивать.

Дисклеймер

Дальше идет мой поток мыслей и просто идеи, как можно поступить и что собираюсь делать я. Если вы со мной не согласны, у вас есть идеи и т. д., добро пожаловать в комментарии, очень жду.

Здесь можно поступить следующим образом, берем модульную архитектуру для масштабирования функционала. Эта идея идет прямиком из первой моей статье по разработке проекта [15]. Дальше разберем нашу проблему, а точнее понимание.

Понимание – это процесс осмысления чего-либо. Когда мы слышим слово «яблоко», мы понимаем, о чём идёт речь, ибо видели яблоко, трогали яблоко, пробовали яблоко и т. д.

Проблема в том, что модель не понимает. Всё, что она знает, что вот этот двоичный код это то же самое, что яблоко, и то, что этот код встречается вот в этом и в этом контексте. На этом всё понимание. То есть просто текста мало, нужны другие данные: звук, картинка и динамика времени.

Современные LLM это очень дорогой и умный попугай, они подбирают текст. Анализируют большие объемы данных и просто сопоставляют самые популярные варианты. Так и работают трансформеры, мы же пойдем в обход и постараемся дать модели сенсорный опыт.

Как? С помощью обучения на видео. Об этой идее я услышал в интервью Ян ЛеКуна. Оказывается, что многие компании так и делают (DeepMind, OpenAI, FAIR).

Долго, дорого и сложно, зато мы закрываем потребность [16] в звуке, картинке и в тексте. То есть, если показать модели видео с яблоками, то она будет понимать за счет анализа как такового, что такое яблоко. Ребенок не учится по учебникам, а наблюдает за миром. То есть мы создаем конкретную связь между текстом, картинкой, звуком и временной динамикой. А модель уже сама строит нейронные связи прямо как человек.

Это способствует построению модели мира (World Models), а данная архитектура сейчас является ключевой. Что это?

Модель мира – это архитектурный подход, когда модель симулирует вокруг себя окружающий мир.

То есть мы можем реализовать условную текстовую симуляцию, например, как режим мышления [17] в ChatGPT, в реальном времени, за счет чего модель сможет понимать.

Так же есть три основных подхода к реализации AGI:

  1. Когнитвный – Воспроизведение высокоуровневых мыслительных процессов человека путем комбинации различных парадигм ИИ

  2. Нейроморфный – Прямое моделирование человеческого мозга в надежде, что интеллект возникнет из его структуры

  3. Химический – Создание самоорганизующихся систем на низком уровне (наподобие химических реакций [18]), чтобы интеллект возник естественным путем

Скажу прямо, реализовать что-то подобное в домашних условиях или одному невозможно, поэтому нам это не подходит. Я думаю, про гибридный подход реализации через разные инструменты, например, как я писал в прошлых статьях, сделать память [19] через бд самый простой и эффективный подход.

Мой гибридный подход это попытка взять лучшее из когнитивного (высокоуровневые модули) и нейроморфного (обучение на опыте).

Заключение

Мой подход оказался основополагающим в научном сообществе, и я ничего нового абсолютно не предлагаю, все было сказано до меня, я лишь обозначил, что и как конкретно хочу использовать.

Эта статья по большей степени написана для того, чтобы разобраться в основных понятиях и понять, что делать и как делать, теперь задача попробовать сделать это дома и за копейки.

Заходите к нам в тг канал [20], там уже есть рабочий прототип.

Автор: Fech

Источник [21]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/25711

URLs in this post:

[1] моей статьи: https://habr.com/ru/articles/896220/

[2] интеллект: http://www.braintools.ru/article/7605

[3] обучение: http://www.braintools.ru/article/5125

[4] математически: http://www.braintools.ru/article/7620

[5] научное доказательство: https://philpapers.org/archive/SCHAII-17.pdf

[6] исследования : https://www.tradingview.com/news/cointelegraph:d947aaee6094b:0-ai-models-still-far-from-agi-level-reasoning-apple-researchers/

[7] творчеству: http://www.braintools.ru/creation

[8] опыт: http://www.braintools.ru/article/6952

[9] ошибки: http://www.braintools.ru/article/4192

[10] мозгом: http://www.braintools.ru/parts-of-the-brain

[11] интуицию: http://www.braintools.ru/article/6929

[12] железе: https://www.windowscentral.com/software-apps/google-ceo-agi-is-impossible-with-current-tech

[13] рабочих мест: https://www.kommersant.ru/doc/7634512

[14] эмоции: http://www.braintools.ru/article/9540

[15] разработке проекта: https://habr.com/ru/articles/853872/

[16] потребность: http://www.braintools.ru/article/9534

[17] мышления: http://www.braintools.ru/thinking

[18] реакций: http://www.braintools.ru/article/1549

[19] память: http://www.braintools.ru/article/4140

[20] тг канал: https://t.me/workshop_on_Grisha

[21] Источник: https://habr.com/ru/articles/996956/?utm_source=habrahabr&utm_medium=rss&utm_campaign=996956

www.BrainTools.ru

Rambler's Top100