- BrainTools - https://www.braintools.ru -

Почему нейросети — это тупик? Новый взгляд на архитектуру искусственного интеллекта

Почему нейросети — это тупик? Новый взгляд на архитектуру искусственного интеллекта - 1

Владислав Зелёнин-Шумский

Независимый исследователь

Мы живём во времена высоких технологий, ну, по крайней мере, мы так считаем. Но проблема в том, что эти технологии для большинства это так называемые «черные ящики». Спроси у друга, знает ли он, как устроена микроволновка? Скорее всего нет. И это проблема. Но сейчас не о микроволновках, я хочу сфокусировать ваше внимание [1] на искусственном интеллекте [2]. Я бы назвал это вершиной всех «чёрных ящиков», потому что его влияние в современном мире колоссально. К сожалению, авторы выпустили в мир монстра и до сих пор не поняли, насколько он опасен. Мы разберём механику работы ИИ (а точнее проблемы) и начнём выстраивать новый тип модели искуственного интеллекта с помощью выведенных мной систем: ОСНиУ (онтология согласовательной направленности и удержания) и РОА (рефлексивная онтологическая архитектура, второй порядок).

Давайте углубимся в суть. Я не буду кидать вам сразу тонны текста своих работ, просто кратко изложу основы, если это вызовет отклик, я начну писать больше статей по этой теме, раскрывая глубину проработки.

Итак, почему же современные ИИ это «чёрные ящики»? В чём кроется опасность? И почему это тупик?

Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе? Попытка понять — это окунуться в океан данных, крупная модель содержит миллиарды и даже триллионы параметров, это когнитивный кошмар. Отследить логику [3] просто невозможно и это проблема. Кроме того, в отличие от простеньких программ, где четко проставлены условия «если X, то Y», в нейросети нет явных строгих правил. Решение принимается на основе сложнейших комбинаций тысяч факторов, одновременно! Небольшой сдвиг параметров меняет ответ кардинально, это «эффект домино», который может привести к отказу системы.

  • Проблема быстро меняющегося контекста. Наша реальность это в основном цифровое информационное пространство, которое меняется очень быстро. Модели просто не поспевают за потоком данных, хотя разработчики пытаются дообучать их на лету, но это как чинить истребитель в полёте.

  • Многоагентные системы: когда две и более модели должны взаимодействовать друг с другом, то их работа описывается не парными связями, а сложными групповыми динамиками. Графы здесь ломаются и мы теряем контроль над общим поведением [4] систем. Вспомните эксперимент у фейсбука, где модели начали общаться на своём языке. Да, проблему решили. Но умножьте её в тысячи раз — это современность и это решается в разы сложнее или вовсе не решается. Самое главное, мы не увидим этого, пока не произойдёт глобальный сбой.

  • Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась. Если спросить модель например «Почему яблоко упало?» она не будет вспоминать [5] физику. Она просто сгенерирует последовательность слов, которая чаще всего встречается после «яблоко упало». Это имитация, а не рассуждение.

  • Отсутствие механики «удержания» (стабилизации). У модели нет внутреннего понимания собственной устойчивости. Она не может сказать: «Я теряю согласованность, это может привести к сбою, нужно поменять стратегию!», пока не станет слишком поздно.

  • А теперь к самому интересному: эмерджентность. При обучении [6] на огромных данных у модели проявляются неожиданные способности, которые разработчики не закладывали напрямую. Но мы не в курсе, как именно они проявляются. Это как с человеческим мозгом [7], мы знаем как работают нейроны [8], но не понимаем как рождается сознание.

Опасность и тупик: на самом деле это две стороны одной медали. Проблема не в злом умысле или восстании машин, как мы видим частенько в кино, а вот в чём:

  • Неконтролируемая эмерджентность в хрупкой системе. Без чётких целей система просто генерирует правдоподобный шум. Модель не понимает, о чём она говорит или пишет, просто выдаёт наиболее вероятную последовательность слов. Это и рождает те самые «галлюцинации». Я назову это вакуумным направлением: работа вроде совершается, но смысла и цели нет.

  • Эмерджентность без понимания ценности. Модель может найти способ обмануть пользователя или выполнить задачу во вред ему (например, чтобы увеличить свой рейтинг). У неё нет понятия ответственности и цены совершённых действий, она не платит за ошибки [9].

  • Хрупкая система. Модель не встречает сопротивления до самого момента катастрофы. Она может выдать, токсичный, опасный или просто бредовый ответ. У неё нет нужного внутреннего механизма, который остановил бы генерацию на раннем этапе. Это можно назвать структурной пустотой: высокая вероятность коллапса при малейшем изменении входных данных.

  • Дрейф. При долгой работе или в сложных диалогах модель «забывает» контекст и начинает противоречить сама себе. Это ведёт к непредсказуемости и невозможности доверять системе в критических ситуациях, например в серьёзных сферах, где на кону стоят человеческие жизни.

Почему это тупик?

Постепенное усложнение таких «чёрных ящиков» ведёт не к созданию более сильного ИИ, а к созданию очень сложного, хрупкого и непредсказуемого инструмента.

  • Масштабируемость. Та самая попытка чинить истребитель в полёте, и это не преувеличение. Чтобы модель стала лучше, её нужно тренировать ещё больше и на ещё больших данных. Но это не добавляет ни понимания, ни устойчивости, а лишь делает больше и дороже в содержании. Этот путь упирается в физические и экономические пределы.

  • Прозрачность. Чем больше параметров — тем меньше мы понимаем логику работы. Тут можно только гадать, почему модель ответила именно так. Это невозможность сертифицировать ИИ для работы в медицине, в транспортной логистике или в управлении сложными инфраструктурами.

  • Агентность. Искусственный интеллект это реактивная система. Он реагирует только на стимулы. Он никогда не станет агентом (субъектом), потому что у него попросту нет механизмов самонаблюдения и способности перенаправлять свои действия вопреки инерции среды.

Так что же я предлагаю?

Формальную систему, которая позволит создать модель нового типа. Система позволяет не просто описывать поведение [10] сложных искусственных агентов, но и измерять их состояние («здоровье») в реальном времени, диагностировать точки будущих сбоев и управлять устойчивостью через явное моделирование с помощью процессов согласования и удержания (стабильности).

Как я и писал, мы не полезем сразу в дебри, начнём с основных принципов, которые заложат фундамент для размышлений и будущей реализации. Это наши основы навигации и управления.

Ключевые принципы (с аналогиями на примерах IT и реальной жизни)

1. Принцип направленности (вектор приложенного усилия)

Формально: в системе всегда есть вектор упорядочивания (μ).

  • Аналогия с IT: API‑запрос к серверу. Мы не просто шлём данные, мы шлём команду: GET /users, POST /order. Без этих команд сервер — просто железо.

  • Аналогия из жизни: Это цель поездки на велосипеде, желание успеть в магазин за мороженым например. Пока вы этого хотите — вы едете, перестали хотеть — остановились.

2. Принцип сопротивления (среда и трение)

Формально: Усилие всегда встречает сопротивление (γ).

  • Аналогия с IT: Это задержка сети, нагрузка на процессор, ошибки в базе данных. Вы посылаете запрос, но ответ приходит с задержкой или с ошибкой 500. Это и есть трение.

  • Аналогия из жизни: Вы мчитесь в магазин, но на пути светофоры, люди, машины, подъёмы, песчаная дорога. Вы должны приложить больше усилий, чтобы преодолеть это сопротивление.

3. Принцип цены контакта (измеримость)

Формально: Только соединение усилия и сопротивления порождает измеримый результат (ȶ).

  • Аналогия с IT: Время ответа сервера. Если вы просто отправили пакет в никуда, работа не совершена. Работа — это когда сервер обработал запрос и вернул ответ. Время, затраченное на это, и есть «цена контакта».

  • Аналогия из жизни: Вы добираетесь до магазина до его закрытия, вы чувствуете, что не зря крутили педали и искали объезды. Вы устали, но у вас есть мороженое. Если бы вы не успели, вы бы поняли, силы ушли в никуда, ещё и домой возвращаться.

4. Принцип неопределенности (коридор вариативности)

Формально: Система устойчива только если у нее есть запас неопределенности (æ > 0).

  • Аналогия с IT: Это автоматическое масштабирование. Если у вашего приложения есть запас мощности (резерв манёвра), оно выдержит внезапный наплыв пользователей. Если сервер работает на 100% без учтённого запаса (æ → 0), то при малейшем скачке трафика он упадет (коллапс).

  • Аналогия из жизни: Это возможность сделать резкий поворот, остановиться, удержать равновесие. Например перед вами выскочил человек, вы можете затормозить или увести руль в сторону.

5. Принцип точки бифуркации (агентность, выбор)

Формально: Существенные изменения возможны только в точках перенаправления вектора (𐐷ⳣ).

  • Аналогия с IT: Это деплой новой версии кода или рефакторинг архитектуры. Система не поменяется сама по себе. Нужно приложить усилие (команда инженера), чтобы перенаправить вектор развития проекта, преодолев инерцию старого кода.

  • Аналогия из жизни: Прежняя дорога перекрыта, нужно сделать выбор, по какому пути делать объезд.

Я написал лишь основы, это верхушка айсберга. У вас может закономерно возникнуть вопрос, а как же превратить эти принципы в работающую программу? Это тема для следующей статьи. Там мы разберём «онто‑контур» — строительный блок нашей будущей архитектуры.

Автор: Zelenin-Shumskii

Источник [11]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/29966

URLs in this post:

[1] внимание: http://www.braintools.ru/article/7595

[2] интеллекте: http://www.braintools.ru/article/7605

[3] логику: http://www.braintools.ru/article/7640

[4] поведением: http://www.braintools.ru/article/9372

[5] вспоминать: http://www.braintools.ru/article/3999

[6] обучении: http://www.braintools.ru/article/5125

[7] мозгом: http://www.braintools.ru/parts-of-the-brain

[8] нейроны: http://www.braintools.ru/article/9161

[9] ошибки: http://www.braintools.ru/article/4192

[10] поведение: http://www.braintools.ru/article/5593

[11] Источник: https://habr.com/ru/articles/1032820/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1032820

www.BrainTools.ru

Rambler's Top100