AGI: почему его не будет, и какую модель мы можем сделать вместо него?. agi.. agi. Big Data.. agi. Big Data. llm-модели.. agi. Big Data. llm-модели. идеи.. agi. Big Data. llm-модели. идеи. ИИ.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект. Машинное обучение.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект. Машинное обучение. модель мира.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект. Машинное обучение. модель мира. нейросети.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект. Машинное обучение. модель мира. нейросети. сильный ии.. agi. Big Data. llm-модели. идеи. ИИ. ии и машинное обучение. ии чат-бот. искусственный интеллект. Машинное обучение. модель мира. нейросети. сильный ии. Сильный искусственный интеллект.
AGI: почему его не будет, и какую модель мы можем сделать вместо него? - 1

Эта статья логическое продолжение моей статьи про AGI. И сегодня я хочу рассказать, почему AGI, про который нам рассказывают, невозможен и что мы можем предложить вместо этого.

Напомню, что AGI – общий искусственный интеллект, который способен на самостоятельное обучение и решение задач, под которые не был заточен. Полная автономия и самостоятельность.

AGI это следующий этап развития ИИ. Подобная модель сможет самостоятельно изучать и решать задачи, совершать новые научные открытия, и в принципе это таблетка от всех проблем. По крайней мере, так считают современные техногиганты, в особенности Илон Маск или Сэм Альтман, которые яро пропагандируют идеи AGI и вот-вот обещают выпустить подобную модель. Но, к сожалению или к счастью, это невозможно, и вот почему.

Создать AGI невозможно?

Если понимать AGI как абсолютного решателя любых задач — да, это невозможно математически.

В мае 2025 года вышло научное доказательство одного профессора прикладных наук Макса Шлерета. В своей статье он выдвинул фундаментальный аргумент против возможности создания AGI. Речь идет о барьере бесконечного выбора.

Суть заключается в том, что существуют задачи, количество решений которых достигает бесконечности. А бесконечный выбор приводит к бесконечным вычислительным ресурсам. Это и делает AGI невозможным. А также невозможность AGI подтверждается эмпирическими данными, такими как исследования Apple, DeepMind, OpenAI и Anthropic.

AGI, способный к автономному творчеству и решению абсолютно любых задач, сталкивается с ситуациями, где пространство возможных решений или интерпретаций стремится к бесконечности. Простыми словами, модель прекрасно решает задачи в рамках своей предметной области, но абсолютно не способна к трансцендентности, к познанию через чувствительный опыт.

Один из ключевых барьеров для AGI – неспособность к трансценденции фрейма, то есть к выходу за пределы заданной модели. Яркий пример – переход от ньютоновской механики к теории относительности. Когда эксперименты выявили расхождения с классическими предсказаниями, решение нашлось не в рамках старой теории, а через введение принципиально нового понятия – инвариантности скорости света. Алгоритм же не может самостоятельно обнаружить ограниченность своей модели: для него аномалии выглядят либо как шум, либо как ошибки данных. Он не способен создать новый семантический примитив, меняющий сами правила игры.

Для гарантированного нахождения оптимального решения в бесконечном пространстве потребуются бесконечные вычислительные ресурсы и время. Следовательно, AGI физически невозможен математически и логически.

А должен ли интеллект быть абсолютным оптимизатором? Человек, например, работает иначе. Мы не перебираем все варианты – мы используем эвристики, опыт и контекст.

Давайте проведем аналогию с нашим мозгом:

  1. Мы сразу отсекаем бессмысленные варианты, даже не рассматривая их

  2. Ориентируемся на прошлый опыт и действуем по аналогии

  3. Принимаем благоразумные решения, а не ищем математически оптимальные

  4. Опираемся на сенсорный опыт и интуицию

Мы не решаем абстрактные задачи в статическом вакууме, где все факторы известны заранее и ничего не меняется. Мы решаем задачи в динамической реальности, где условия могут поменяться в любую секунду – и наше решение должно это учитывать.

И поэтому аргумент Шлерета не приговор, а лишь ограничения, которые наложили на разработку.

Вычислительная проблема

Некоторые ученные, например, Сундар Пичаи, гендеректор Google, считает, что AGI будет крайне сложно создать на современном железе.

Здесь оценка строится от идеи масштабирования, а рост параметров LLM имеет экспоненциальную стоимость. Например, Llama 3.1 405B обучалась на 810 ГБ VRAM и энергозатратами, сравнимыми с годовым потреблением небольшого города. А мы говорим о триллионах параметров? О десятках триллионов?

Это тупиковый путь не только логически, но и экономически. Масштабирование LLM – это гонка за убывающей отдачей, где каждый следующий процент интеллектуальности будет стоить в ге��метрической прогрессии дороже, не приближая нас к настоящему пониманию. У этого подхода имеется физический и финансовый потолок.

Экономическая проблема

Резкий рост требований к железу и энергии напрямую ведёт к гипернакачке инвестициями. Прогнозы рисуют футуристические картины: объём рынка ИИ к 2030 году достигнет $4,8 трлн, а технологии затронут 40% рабочих мест.

История повторяется, из ИИ раздули такой же пузырь, как в свое время из доткомов. Но проблема не в количестве денег, а в том, куда они идут. Интернет переоценили в моменте и не оценили его в долгосроке. Сейчас жизнь без интернета буквально невозможна.

Если пузырь лопнет, то инвестиции в ИИ просто исчезнут. Деньги уйдут, стартапы закроются, исследования свернут. Но в долгосрочной перспективе это может оказаться огромным плюсом. Закончится гонка параметров, которая сейчас пожирает все ресурсы. Те, кто останутся на поле, это либо нишевые игроки с реальными продуктами, либо исследователи, которым не нужно гнаться за GPT-7 и собирать кластеры на миллион и одну видеокарту.

Именно тогда появится пространство для экспериментов с новыми архитектурами. Не потому, что деньги волшебным образом перетекут в правильные проекты, а потому что кончится безумие, когда деньги получает тот, у кого больше параметров.

Главная задача, не выплеснуть ребенка вместе с водой. Если пузырь лопнет слишком сильно, вместе с деньгами на масштабирование умрет и финансирование фундаментальных исследований. А без них исследования умрут.

Привет человек

Считаю, что с AGI история повторится. Сейчас идет постоянный рост LLM-моделей. И когда они будут уже не на 660 млрд параметров, а на триллион и больше, их просто назовут AGI. Никакого качественного скачка не произойдет – просто очередной ребрендинг, как это уже было с «экспертными системами» вместо ИИ или «машинным обучением» вместо нейросетей.

Но понимания у таких моделей не появится. Это будет очень умный и очень дорогой попугай. Просто теперь он будет говорить так убедительно, что люди примут его за разумного.

И здесь мы упираемся в другой вопрос – даже если мы назовем это AGI, сможет ли такой инструмент решать задачи, требующие человеческого участия?

Есть один социальный аспект, а точнее – вопрос о человечности как таковой. AGI (или то, что им назовут) – это не таблетка от всех проблем, а мощный инструмент. Но сможет ли этот инструмент давать благоразумные решения без эмпатии? Должна ли быть у него эмпатия?

В 1966 году в Великобритании появилась Элиза, чат-бот, который имитировал работу психотерапевта. Она работала по простейшему принципу: сопоставление образцов и подстановка готовых фраз. На любой запрос пользователя у нее был шаблонный ответ. И люди верили ей. Они раскрывались, плакали, благодарили психотерапевта, который просто перефразировал их же слова.

И здесь мы попали в красивый тупик:

  • Если AGI не нужна человечность, то мы теряем суть. Он не сможет решать все задачи. Он не справится с задачами, где нужны эмоции, эмпатия или понимание человеческой природы. Психология, воспитание, дипломатия, управление людьми (менеджмент), всё это не наш случай. А значит, это не AGI, а просто очень умный, но бесполезный в человеческих делах калькулятор.

  • Если мы наделяем AGI человечностью, то это уже не инструмент, а субъект. А субъекты имеют собственные интересы. И нет никаких гарантий, что наши интересы совпадут.

Раскрытие проблемы нужно искать где-то в середине, в философии. Сначала нужно понять в принципе, что такое интеллект.

А что теперь? Что там с архитектурой?

Давайте сразу обозначим, я хочу создать понимающую модель, а не AGI. Модель, которая понимает, что она делает, и далее просто развивать функционал и наращивать.

Дисклеймер

Дальше идет мой поток мыслей и просто идеи, как можно поступить и что собираюсь делать я. Если вы со мной не согласны, у вас есть идеи и т. д., добро пожаловать в комментарии, очень жду.

Здесь можно поступить следующим образом, берем модульную архитектуру для масштабирования функционала. Эта идея идет прямиком из первой моей статье по разработке проекта. Дальше разберем нашу проблему, а точнее понимание.

Понимание – это процесс осмысления чего-либо. Когда мы слышим слово «яблоко», мы понимаем, о чём идёт речь, ибо видели яблоко, трогали яблоко, пробовали яблоко и т. д.

Проблема в том, что модель не понимает. Всё, что она знает, что вот этот двоичный код это то же самое, что яблоко, и то, что этот код встречается вот в этом и в этом контексте. На этом всё понимание. То есть просто текста мало, нужны другие данные: звук, картинка и динамика времени.

Современные LLM это очень дорогой и умный попугай, они подбирают текст. Анализируют большие объемы данных и просто сопоставляют самые популярные варианты. Так и работают трансформеры, мы же пойдем в обход и постараемся дать модели сенсорный опыт.

Как? С помощью обучения на видео. Об этой идее я услышал в интервью Ян ЛеКуна. Оказывается, что многие компании так и делают (DeepMind, OpenAI, FAIR).

Долго, дорого и сложно, зато мы закрываем потребность в звуке, картинке и в тексте. То есть, если показать модели видео с яблоками, то она будет понимать за счет анализа как такового, что такое яблоко. Ребенок не учится по учебникам, а наблюдает за миром. То есть мы создаем конкретную связь между текстом, картинкой, звуком и временной динамикой. А модель уже сама строит нейронные связи прямо как человек.

Это способствует построению модели мира (World Models), а данная архитектура сейчас является ключевой. Что это?

Модель мира – это архитектурный подход, когда модель симулирует вокруг себя окружающий мир.

То есть мы можем реализовать условную текстовую симуляцию, например, как режим мышления в ChatGPT, в реальном времени, за счет чего модель сможет понимать.

Так же есть три основных подхода к реализации AGI:

  1. Когнитвный – Воспроизведение высокоуровневых мыслительных процессов человека путем комбинации различных парадигм ИИ

  2. Нейроморфный – Прямое моделирование человеческого мозга в надежде, что интеллект возникнет из его структуры

  3. Химический – Создание самоорганизующихся систем на низком уровне (наподобие химических реакций), чтобы интеллект возник естественным путем

Скажу прямо, реализовать что-то подобное в домашних условиях или одному невозможно, поэтому нам это не подходит. Я думаю, про гибридный подход реализации через разные инструменты, например, как я писал в прошлых статьях, сделать память через бд самый простой и эффективный подход.

Мой гибридный подход это попытка взять лучшее из когнитивного (высокоуровневые модули) и нейроморфного (обучение на опыте).

Заключение

Мой подход оказался основополагающим в научном сообществе, и я ничего нового абсолютно не предлагаю, все было сказано до меня, я лишь обозначил, что и как конкретно хочу использовать.

Эта статья по большей степени написана для того, чтобы разобраться в основных понятиях и понять, что делать и как делать, теперь задача попробовать сделать это дома и за копейки.

Заходите к нам в тг канал, там уже есть рабочий прототип.

Автор: Fech

Источник

Rambler's Top100