Когда-то в далеком 1968 году Филип К. Дик задавался вопросом: «Мечтают ли андроиды об электрических овцах?» Способны ли машины переживать, желать и видеть сны? Хоть сегодняшние «андроиды» и несколько иные, чем в произведении, вопрос до сих остается актуальным. Только слегка сместился фокус: не «мечтают ли», а «снятся ли им цифровые овцы»? Существует ли у нейросетей аналог фазы медленного сна, перерабатывают ли они данные «во сне» и, главное, способны ли «видеть сны»?
Наука и инженерия уже потихоньку начинают отвечать на эти вопросы. Конечно же, не философски, а технически. В этой статье я расскажу, что известно о «сне» и «сновидениях» искусственного интеллекта в 2026 году и как исследования человеческого мозга помогают инженерам решать проблемы нейросетей.

Зачем сон человеческому мозгу
Для мозга сон не отдых, а активная работа. Во время сна он решает три ключевые задачи:
-
Консолидация памяти — перевод опыта из краткосрочного хранилища в долгосрочное. Гиппокамп перепроигрывает дневные события, а кора больших полушарий интегрирует их в существующую сеть знаний.
-
Очистка от шумов — глимфатическая система удаляет метаболические отходы и ослабляет избыточные синаптические связи. Мозг буквально проводит генеральную уборку, отсеивая несущественные сигналы.
-
Синаптический гомеостаз — восстановление способности к обучению. За день синапсы усиливаются, потребляя все больше энергии; сон возвращает их к базовому состоянию, чтобы следующий период бодрствования снова был продуктивным.
Отдельно стоит фаза быстрого сна, во время которой мы видим сновидения. Исследования [7] показывают, что сновидения — это не просто побочный продукт. Они участвуют в обработке эмоций и, по некоторым теориям, помогают мозгу интегрировать новые знания через случайные ассоциативные комбинации. Мыши, которых обучали проходить лабиринт, во сне перепроигрывали маршрут. А люди, изучавшие новую задачу, после сна с быстрой фазой находили нетривиальные решения.
О том, что происходит с человеком при лишении сна, известно из многочисленных экспериментов [8]. Уже через 24 часа без сна когнитивные способности падают до уровня легкого опьянения. Через трое суток появляются галлюцинации, паранойя, неспособность связно мыслить. В рекордных экспериментах — например, с Рэнди Гарднером, не спавшим 11 дней, — экспериментаторы фиксировали провалы памяти и дезориентацию.
ИИ-инженеры провели аналогию между реальным и искусственным интеллектом, ведь у нейросетей есть условно схожие проблемы.
Зачем сон нейросетям
Как и человеческий мозг, нейросети страдают от накопления ошибок, катастрофического забывания и интерференции — старой и новой. Только сон у них, конечно, будет не реальным, а алгоритмическим.
Проблема галлюцинаций у SNN
В 2020 году исследователи из Лос-Аламосской национальной лаборатории (США) работали с импульсными нейронными сетями (Spiking Neural Networks, SNN) — типом сетей, которые общаются не числами с плавающей точкой, а редкими электрическими импульсами, как настоящие нейроны [2]. В отличие от классических нейросетей, где нейроны активируются на каждом шаге, в SNN нейрон «выстреливает» импульсом, только когда накопленный мембранный потенциал превышает определенный порог. После этого он возвращается в состояние покоя. Такой механизм называется «интегрировать и выстрелить» (integrate-and-fire).
Примеры реальных SNN: нейроморфный процессор Intel Loihi, способный симулировать до восьми миллионов нейронов в реальном времени, и исследовательская платформа TrueNorth от IBM, разработанная для энергоэффективных вычислений. SNN применяются там, где критично энергопотребление: робототехника, сенсорные сети, обработка видеопотоков с камер-ретин.
Исследователи заметили, что после длительной работы без перерыва SNN начинала сбоить: нейроны непрерывно генерировали импульсы вне зависимости от входных данных, распознавание падало, модель «галлюцинировала» — уверенно выдавала неверные ответы.
Команда во главе с Ицзин Уоткинс перепробовала разные подходы — и, по словам исследователей, «почти от отчаяния» решила имитировать глубокий сон. Они подали на вход сети осциллирующий гауссовский шум, имитирующий медленные волны, которые мозг генерирует во время глубокого сна. После процедуры показатели восстановились, галлюцинации исчезли.
Как пояснил соавтор исследования Гарретт Кеньон: «Наши результаты приводят к удивительному предсказанию: медленноволновый сон может быть необходим для любой импульсной нейронной сети (и возможно, для любого организма с нервной системой), чтобы он мог обучаться на основе окружающей среды».
Команда планировала внедрить алгоритм в нейроморфный чип Intel Loihi для обработки данных с кремниевой камеры-ретины в реальном времени.
Проблема катастрофического забывания и интерференции у LLM
У больших языковых моделей (LLM) другая проблема. Она называется катастрофическое забывание: при обучении на новой задаче модель теряет навыки, приобретенные на предыдущей. Если дообучить LLM на юридических текстах, она начнет хуже писать стихи, а если добавить новый язык — может разучиться переводить с английского.
Кроме того, LLM страдают от проактивной интерференции: старая информация в памяти мешает извлечению новой. Представьте сотрудника, который постоянно путает новую программу со старой — примерно так же модель «спотыкается» об устаревшие данные.
В марте 2026 года на arXiv вышла работа Ин Се из Университета Кеннесо Learning to Forget: Sleep-Inspired Memory Consolidation for Resolving Proactive Interference in Large Language Models [1]. Автор предложил SleepGate — биологически инспирированный фреймворк, который добавляет в LLM «цикл сна», работающий над кешем ключей и значений (KV-cache). Во время «микроциклов сна» система обнаруживает устаревшие записи, выборочно удаляет или сжимает их и объединяет оставшиеся в компактные представления.
В результате ученые добились точности извлечения информации: 99,5% при глубине пяти вмешательств и 97% при глубине десяти. А еще все пять подходов сравнения (полный KV-кеш, скользящее окно, H2O, StreamingLLM, decay-only) показали результат ниже 18% на всех глубинах.
Архитектуры, которые умеют «спать»
В 2026 году появилось несколько независимых работ, подтверждающих возможность и необходимость для ИИ алгоритмического сна.
Sleep-Consolidated Memory (память, которая консолидируется во сне)
22 апреля 2026 на arXiv вышла работа Саиша Шинде SCM: Sleep-Consolidated Memory with Algorithmic Forgetting for Large Language Models [2]. Автор встроил в LLM компоненты, имитирующие человеческую память:
-
Рабочая память — ограниченная емкость для текущих данных.
-
Оценка важности — алгоритм решает, что забыть, а что сохранить.
-
Офлайн-консолидация во сне — модель переключается в «сонный режим», переупаковывает знания и чистит шум.
-
Фазы сна — разработчик ввел условные NREM- и REM-фазы для разных типов информации.
В итоги получились вот такие результаты:
-
Идеальная точность воспроизведения информации в диалогах на десять раундов.
-
Снижение «шума» памяти на 90,9%.
-
Скорость поиска — меньше миллисекунды при сотнях сохраненных концептов.
Awakening the Sleeping Agent (пробуждение спящего агента)
9 апреля 2026 на arXiv появилась работа группы исследователей во главе с Цзюй-Хуэй Чун Awakening the Sleeping Agent: Lean-Specific Agentic Data Reactivates General Tool Use in Goedel Prover [3]. Авторы описывают модель Goedel-Prover-V2, прошедшую интенсивное дообучение на 1,8 миллиона примеров из формальной математики. После такой специализации модель почти полностью утратила способность использовать внешние инструменты: точность вызовов API упала с 89,4% до почти нуля. Модель как будто «заснула» и перестала реагировать на запросы, требующие выхода за пределы математических знаний.
Оказалось, что потеря не необратима. Всего сотни обучающих примеров хватило, чтобы восстановить функцию вызова инструментов до 83,8% — почти до уровня базовой модели. Примечательно, что примеры касались исключительно поиска теорем в Lean-библиотеке Mathlib, но восстановленная способность перенеслась далеко за пределы математики.
Практическая польза подтвердилась и в профильной области: на ProofNet результат вырос с 21,51 до 25,81%. А главный вывод, который сделали ученые: глубокая специализация не стирает общие навыки необратимо — их можно «разбудить» минимальным количеством правильно подобранных данных.
Sleeping LLM (модель, которая буквально спит)
В феврале 2026 года на GitHub появился проект Sleeping LLM [4], реализующий двухсистемную архитектуру памяти. Он основан на нейро-научной теории комплементарных обучающих систем (Complementary Learning Systems, CLS), согласно которой обучение в мозге обеспечивается взаимодействием двух систем: гиппокампа — быстрого, но нестабильного хранилища для новых фактов, и коры — медленного, но надежного долговременного хранилища. Проект воспроизводит эту модель технически.
Во время «бодрствования» факты записываются в веса модели через MEMIT — быстро, но с риском потери при перезаписи параметров. Во время «сна» запускается цикл консолидации: знания переносятся из MEMIT в LoRA-адаптеры, то есть медленное, но стабильное хранилище. После переноса MEMIT-правки растворяются по заданному графику (scale 1.0 → 0.5 → 0.1 → 0.0), освобождая место для новых фактов.
Результаты эксперимента:
-
100% консолидации фактов через LoRA при 5, 10, 15 и 20 фактах;
-
30 фактов при начальной точности 40% восстанавливаются до 100% за 4 цикла «сна»;
-
Без консолидации модель 8B резко ломается после 13–14 фактов, recall падает с 0.92 до 0.57 — вместо плавной деградации происходит фазовый переход.
Что по поводу сновидений
В человеческом мозге сновидения связывают с фазой быстрого сна (REM). Считается, что в этой фазе мозг формирует случайные комбинации дневных впечатлений, помогая находить неочевидные связи между разрозненными фактами.
В мире ИИ аналог сновидений пока остается скорее экспериментальной областью, но есть и прецеденты. Так, в 2023 году исследователи использовали генеративные модели, чтобы «визуализировать» внутренние состояния нейросетей — фактически реконструируя их «сны» по паттернам активации [5]. А еще придумали методику Generative Teaching Networks, где одна нейросеть генерирует обучающие примеры для другой, создавая синтетические данные, напоминающие воображение.
Пока это лишь метафора, но направление активно развивается. Если алгоритмический сон уже становится реальным и необходимым инструментом, то сновидения — скорее, следующий рубеж, который, возможно, позволит моделям не просто запоминать, а творчески перерабатывать информацию.
Вместо заключения
Алгоритмический сон потихоньку доказывает свою эффективность. Сейчас он помогает ИИ решать конкретные задачи:
-
Стабильность обучения — предотвращает галлюцинации и хаотичное поведение.
-
Консолидация памяти — переупаковывает знания, интегрирует их в уже существующие.
-
Борьба с интерференцией — очищает контекстное окно от устаревшей информации.
-
Сохранение навыков — модель сохраняет старые компетенции при обучении новым.
А вот искусственные сновидения пока остаются на уровне исследовательских идей. Но если однажды нейросеть, разбуженная после цикла консолидации, выдаст не просто точный ответ, а нечто, что мы сможем назвать «озарением», — возможно, найдутся ответы и на тот самый вопрос Дика.
Ссылки на источники
[1] Ying Xie. Learning to Forget: Sleep-Inspired Memory Consolidation for Resolving Proactive Interference in Large Language Models. arXiv:2603.14517, март 2026. https://arxiv.org/abs/2603.14517
[2] Saish Sachin Shinde. SCM: Sleep-Consolidated Memory with Algorithmic Forgetting for Large Language Models. arXiv:2604.20943, апрель 2026. https://arxiv.org/abs/2604.20943
[3] Jui-Hui Chung, Hongzhou Lin, Lai Jiang, Shange Tang, Chi Jin. Awakening the Sleeping Agent: Lean-Specific Agentic Data Reactivates General Tool Use in Goedel Prover. arXiv:2604.08388, апрель 2026. https://arxiv.org/abs/2604.08388
[4] Sleeping LLM. GitHub-репозиторий, февраль 2026. https://github.com/vbario/sleeping-llm
[5] Yijing Watkins, Garrett Kenyon et al. Los Alamos National Laboratory, 2020. Описание исследования. https://www.insidescience.org/news/why-artificial-brains-need-sleep
[6] Сны разума: что общего у сновидений с работой нейросетей? / Хабр, 2023. https://habr.com/ru/companies/ruvds/articles/746878/
[7] Konkoly K.R. et al. Creative problem-solving after experimentally provoking dreams of unsolved puzzles during REM sleep. Neuroscience of Consciousness, 2026. https://doi.org/10.1093/nc/niaf067
[8] MIT News, 2003. Rats replay tasks during slow wave sleep. https://doi.org/10.1093/nc/niaf067
Статья основана на обзоре открытых исследований 2020–2026 годов. Если у вас есть другие примеры или замечания — добро пожаловать в комментарии.
Автор: maraty


