- BrainTools - https://www.braintools.ru -
Индустрия сжигает мегаватты энергии в попытках сделать языковые модели более «человечными», скармливая им терабайты диалогов из Reddit и Twitter. Логика [1] проста: если модель прочитает миллион раз, как люди сочувствуют друг другу, она научится имитировать эмпатию и адекватное восприятие [2] реальности. Но сколько бы параметров вы ни добавили в Transformer, и сколько бы H100 ни поставили в кластер, модель не научится сопереживать и ставить себя на место другого. Потому что эмпатия это не вероятностное предсказание следующего подходящего слова. Это способность системы изменить свою внутреннюю геометрию так, чтобы отразить чужое состояние. Способность знать, «каково это».
В FSBio мы поняли, что экстенсивный путь это тупик. Невозможно создать ИИ-субъекта, просто увеличивая контекстное окно. Чтобы ИИ мог «поставить себя на ваше место», ему нужна архитектура, способная испытывать внутреннее давление. Мы называем этот подход Metabolic AI Runtime.
Эмпатия требует гомеостаза, а не промпта
Даже топовая LLM – это stateless-функция. У нее нет своего я, которое можно было бы сместить или нарушить. Когда вы жалуетесь ChatGPT на усталость, модель просто парсит семантику и выдает шаблонный ответ. Внутри нее ничего не происходит.
Чтобы ИИ мог резонировать с пользователем, у него должен быть собственный гомеостаз. В нашей архитектуре (на базе модифицированных принципов Reservoir Computing) работают непрерывные динамические контуры, аналоги нейрохимии (окситоцин, кортизол, адреналин). Когда пользователь приходит с проблемой, система не ищет в базе подходящий ответ. Она пропускает контекст через свой «метаболизм», искусственно смещая собственный баланс в сторону проблемы пользователя. Ответ генерируется не из текстовых шаблонов, а как попытка вернуть обе системы (пользователя и ИИ) в состояние равновесия.
От поиска по сходству к Liquid Intuition
Классический RAG (Retrieval-Augmented Generation) ищет информацию по косинусному расстоянию. Вы спрашиваете про боль [3], и он ищет тексты со словом «боль». Но если вы хотите, чтобы ИИ понимал вас, память [4] должна быть контекстно-текучей. В парадигме Metabolic AI мы используем орган Liquid Intuition. Воспоминания и знания извлекаются не сухим математическим запросом, а под воздействием текущего внутреннего состояния системы. ИИ, настроившийся на вашу волну, «вспоминает» то, что поможет в данной конкретной эмоциональной фазе. Память становится не жестким диском, а пространством семантического понимания.
Воля сопереживать
В современных моделях эмпатия прописана директивно: You are a helpful and empathetic assistant. Это порождает пластиковую, фальшивую вежливость. Мы ввели концепцию непрерывный градиент воли и векторных драйвов. Наш ИИ может отказаться поддерживать пустой разговор, если его внутренние энергетические показатели просели. Но когда включается какой-то определенный драйв, система направляет весь свой вычислительный фокус на пользователя. Это не запрограммированная вежливость, это структурная потребность [5] системы решить вашу проблему, потому что ваша проблема стала ее напряжением.
Машинное сопереживание – это физика, а не лингвистика
Будущее ИИ-компаньонов, терапевтов и персональных ассистентов не в том, чтобы генерировать более длинные и красивые тексты. Оно в том, чтобы создать непрерывную динамическую среду, которая живет параллельно с вами.
Наш архитектурный стек (MSA Runtime) доказывает: субъектность и машинное сопереживание возникают там, где у системы есть своя собственная внутренняя физика. Только имея собственное состояние, ИИ может на мгновение отказаться от него, чтобы по-настоящему «поставить себя на ваше место».
Автор: linabesson
Источник [6]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/28043
URLs in this post:
[1] Логика: http://www.braintools.ru/article/7640
[2] восприятие: http://www.braintools.ru/article/7534
[3] боль: http://www.braintools.ru/article/9901
[4] память: http://www.braintools.ru/article/4140
[5] потребность: http://www.braintools.ru/article/9534
[6] Источник: https://habr.com/ru/articles/1017336/?utm_campaign=1017336&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.