- BrainTools - https://www.braintools.ru -

Титаны и MIROS: Google учит ИИ помнить как человек — от сюрприза к бесконечной памяти

Титаны и MIROS: Google учит ИИ помнить как человек — от сюрприза к бесконечной памяти - 1

2026 год в разгаре: мы пережили новогодние обновления фреймворков, свежие релизы ИИ-моделей и, возможно, первые эксперименты с AGI в labs. Но после праздничного кода и кофе пора нырнуть в фундаментальное — как сделать ИИ, который не просто генерирует текст, а эволюционирует в реальном вре��ени. Около месяца назад Google Research анонсировали архитектуру HOPE с вложенным обучением [1] для непрерывной памяти [2]. А теперь — свежий пост о более ранних, но потенциально революционных работах: Titans и фреймворке MIROS [3]. Это гибрид рекуррентных сетей и трансформеров, где память обновляется на лету через “сюрприз”.

Проблема памяти в ИИ: от золотой рыбки к человеческому мозгу

Современные LLM (Large Language Models) — мастера предсказаний, но с памятью у них беда. Они полагаются на контекстное окно — буфер текста, который обрабатывается целиком. Проблема? Квадратичная сложность внимания [4]: для n токенов вычисления растут как O(n²). Удвойте контекст — нагрузка вырастет вчетверо. На миллионах токенов это ад для GPU.

Рекуррентные модели (Mamba, RWKV, RetNet) решают это линейно: O(n). Они сжимают историю в фиксированное скрытое состояние, как конвейер. Быстро, но память “золотой рыбки” — старое вытесняется новым, детали теряются.

Google предлагает третий путь: Titans — архитектура, где память — это глубокая нейронная сеть внутри модели, обновляемая через градиентный спуск во время инференса (test-time training). А MIROS — теоретический фреймворк, обобщающий это на все последовательные модели. Ключ — “сюрприз” (surprise metric): модель фиксирует только неожиданное, как мозг [5] запоминает вертолет на дороге, а не рутинную поездку.

Аналогия такая: Читая “Войну и мир”, вы помните Пьера Безухова через сотни страниц, но не каждое слово. Мозг сжимает смыслы. Titans делают то же: фильтруют шум, сохраняют суть.

Как работает Titans: сюрприз, градиент и динамическая память

В Titans модель предсказывает следующий токен. Если прогноз сбывается (“мама мыла раму”) — сюрприз низкий, градиент ошибки [6] ~0, память не обновляется. Если ломается (“мама мыла синхрофазотрон”) — всплеск градиента, модель “кричит”: “Важно! Запиши в long-term memory”.

Память — не вектор, а MLP (многослойный перцептрон) внутри модели. Short-term — attention на текущем куске. Long-term — обновляется градиентом на сюрпризе.

Два механизма контроля:

Momentum: Учитывает накопленный сюрприз, не только мгновенный.

Forget Gate (адаптивный weight decay): Активно забывает [7] ненужное, освобождая место.

Интеграция памяти в три варианта:

MAC (Memory as Context): Память как дополнительный контекст перед attention. Лучше для сверхдлинных последовательностей (2M токенов).

MAG (Memory as Gate): Смешивает с основным потоком через гейт.

MAL (Memory as Layer): Как отдельный слой.

Тесты: Titans (1-2B параметров) бьют GPT-4 на 2M токенах. Идеально проходят “иголку в стоге сена” — тест, где факт (типа “пароль 3578”) прячут в середине огромного текста. Старые модели теряют середину; Titans — нет.

MIROS: единый фреймворк для всех последовательных моделей

MIROS видит трансформеры, Mamba, RetNet и Titans как вариации онлайн-оптимизации: подстройка параметров под новые данные в реальном времени.

Четыре компонента MIROS:

M (Memory Architecture): От скаляра/вектора до MLP (как в Titans).

I (Internal Loss): Целевая функция (L2, но можно дальше — attentional bias).

R (Retention Gate): Регуляризатор забывания [8] (Elastic Net, KL-дивергенция).

O (Optimization Algorithm): Как обновлять (SGD с momentum, closed-form как в linear attention).

S (Surprise Metric): Метрика для триггера обновлений.

На базе MIROS — три экспериментальные модели:

Moneta: Lp-норма вместо L2 — устойчива к шуму.

YAAD: Huber loss — квадратична у нуля, линейна на хвостах; игнорирует выбросы.

Memora: ElasticNet + KL для стабильности.

Что это значит для AGI и будущего LLM?

Это шаг к stateful моделям: от stateless (читают контекст заново) к динамической памяти. Attention — short-term, weights — long-term. Titans сливают их: модель “умнеет” к концу текста, перестраивая синапсы [9].

Связь с биологией: Инференс = часть обучения, как active inference Карла Фристона. Не бесконечное окно, а эволюционирующая память.

Споры о LLM как тупике? Нет: Titans — эволюция [10] LLM. “Large” — миллиарды параметров; “Language Model” — предсказание токенов. Трансформеры — текущий “двигатель”, Titans — гибридный. Будущие LLM будут мультимодальными, с бесконечной памятью без угасания.

Это не пузырь: вложенное обучение (как в HOPE) + Titans ведут к биоподобному ИИ.

Источник [3] 🚀

Автор: Nikta3

Источник [11]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/24632

URLs in this post:

[1] обучением: http://www.braintools.ru/article/5125

[2] памяти: http://www.braintools.ru/article/4140

[3] Titans и фреймворке MIROS: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/

[4] внимания: http://www.braintools.ru/article/7595

[5] мозг: http://www.braintools.ru/parts-of-the-brain

[6] ошибки: http://www.braintools.ru/article/4192

[7] забывает: http://www.braintools.ru/article/333

[8] забывания: http://www.braintools.ru/article/3931

[9] синапсы: http://www.braintools.ru/neuron-the-structure-of-nerve-cell/synapse

[10] эволюция: http://www.braintools.ru/article/7702

[11] Источник: https://habr.com/ru/articles/988100/?utm_source=habrahabr&utm_medium=rss&utm_campaign=988100

www.BrainTools.ru

Rambler's Top100