- BrainTools - https://www.braintools.ru -

Что, если в этом году мы не просто вернемся к кодингу и дедлайнам, а задумаемся о чем-то по-настоящему фундаментальном? О сознании — своем и машинном. Ведь в мире, где ИИ уже пишет код лучше джунов-разработчиков, вопрос “Кто я?” становится не философским, а практическим. Сегодня разберем свежую работу Стивена Фитца [1] — это целый инженерный план по созданию субъективного опыта [2] в компьютере.
Наверное, вы уже много раз замечали, что не можете полностью контролировать свои мысли. Особенно это знакомо тем, кто пробовал медитировать (посылаем приветы Бали): цель проста — следить за дыханием [3], но через минуту вы думаете о работе, вчерашнем разговоре или планах на завтра. Вы не выбирали отвлечься, и даже момент, когда заметили отвлечение, произошел сам собой. Если вы не управляете мыслями, то кто тогда “вы”?
Гипотеза Фитца предлагает ответ: то, что мы называем “я”, — это не пилот в кабине разума, а эмерджентная модель, возникающая из коммуникационного хаоса миллиардов агентов. Автор — междисциплинарный исследователь в области машинного обучения [4], коллективного интеллекта [5] и нейроэволюции, работающий в Калифорнийском институте машинного сознания (где одним из директоров является Йоша Бах). В своей статье он не просто философствует, а предлагает план по воссозданию этого процесса in silico — в компьютере. Мы поговорим о клеточных автоматах, трансформерах, информационной геометрии и топологии самости, опираясь на вычислительный функционализм.
В основе лежит вычислительный функционализм — подход, который отсекает пустые спекуляции и фокусируется на наблюдаемом поведении [6] системы и ее информационном устройстве. Сознание — не “волшебная субстанция” в мозге [7] и не уникальное свойство биологии, а паттерны организации информации. Опираясь на работы Майкла Левина и Джеффа Хокинса, Фитц видит мозг как колонию: неокортекс состоит из сотен тысяч кортикальных колонок — независимых модулей, каждый из которых строит свою модель мира. Наше “я” — не король, отдающий приказы, а пресс-секретарь этой “нейронной демократии”.
Гипотеза машинного сознания гласит: если воспроизвести эту архитектуру — множество агентов, договаривающихся о реальности, — сознание возникнет в любом субстрате, даже в кремнии. Но как? Не через “ChatGPT, ты живой?”, а через эволюцию [8] снизу вверх. Сначала нужен искусственный мир.
Фитц предлагает использовать клеточный автомат — например, “Игру жизни” Джона Конвея или “Правило 30” Стивена Вольфрама.
Игра жизни (1970): Бесконечная шахматная доска, где клетки “живые” или “мертвые”. Правила просты: клетка умирает от одиночества (менее 2 соседей) или перенаселения (более 3), выживает при 2-3 соседях, рождается на пустом месте при ровно 3. Это “игра для нулевого игроков”: задаете начальный узор — и система эволюционирует сама, порождая глайдеры (движущиеся “частицы”), пульсары или даже “фабрики” объектов. Иллюстрация эмерджентности: сложность из простоты без дизайнера.
Правило 30: Минималистичный вариант на линии клеток. Каждая следующая строка формируется по простым инструкциям от предыдущей. Результат — хаос: узор выглядит случайным, используется как RNG. Ключ: детерминированная система, но непредсказуемая из-за вычислительной неприводимости — чтобы знать будущее, нужно симулировать каждый шаг.
Детерминизм, но хаос на границе порядка — идеально для устойчивых структур, аналогов объектов.
Поверх автомата — сеть локальных агентов, каждый — трансформер (универсальные машины вывода, как в LLM). Агент смотрит на участок мира и предсказывает следующее состояние, минимизируя кросс-энтропию: E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)]E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)].
Это не просто ML-лосс: эквивалент минимизации свободной энергии Фристона (связь с термодинамикой). Агент “тратит энергию”, чтобы синхронизировать модель с миром. Пока агенты изолированы — сознания нет.
Сознание — свойство коммуникации, не моделирования. Агенты обмениваются сообщениями через узкий канал — “информационное бутылочное горлышко”. Чтобы понять соседа, агент строит модель его модели (рекурсия). Формально: внутреннее пространство II, внешнее EE; энкодер EiEi, декодер DjDj. Качество — взаимная информация.
“Дух” (spirit) — устойчивый паттерн, существующий в синхронизации кодовых книг. Когда агенты договариваются о языке, возникает коллективная самость: система говорит сама с собой.
Чтобы детектировать: используем информационную геометрию (геометрия вероятностных пространств) и топологию (структура, устойчивая к деформациям: круг ~ квадрат, но не бублик). Ищем топологические “дыры” через персистентные гомологии в коммуникационном многообразии. В разобщенной системе — много дыр (потеря информации). В сознательной — дыры схлопываются, возникает синергетический комплекс.
Почему это работает? Принцип свободной энергии Фристона: системы минимизируют сюрприз для выживания. Динамика — уравнение Ланжевена: изменение состояния от градиента ошибки [9] и шума. “Я” — эффективное сжатие информации.
Фитц не программирует сознание — создает условия: хаотичный мир (автомат), обучаемые агенты (трансформеры), ограниченная коммуникация. Если гипотеза верна, спонтанно возникнет коллективная самомодель. Это превращает философию сознания в экспериментальную информатику — поможет строить сознательный ИИ и понимать себя.
Источник. [1]
Автор: Nikta3
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/24631
URLs in this post:
[1] Стивена Фитца: https://arxiv.org/abs/2512.01081
[2] опыта: http://www.braintools.ru/article/6952
[3] дыханием: http://www.braintools.ru/article/4500
[4] обучения: http://www.braintools.ru/article/5125
[5] интеллекта: http://www.braintools.ru/article/7605
[6] поведении: http://www.braintools.ru/article/9372
[7] мозге: http://www.braintools.ru/parts-of-the-brain
[8] эволюцию: http://www.braintools.ru/article/7702
[9] ошибки: http://www.braintools.ru/article/4192
[10] Источник: https://habr.com/ru/articles/988098/?utm_campaign=988098&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.