- BrainTools - https://www.braintools.ru -
Hierarchical Reasoning Model [1], (HRM) — рекуррентная архитектура, которая черпает вдохновение в принципах работы человеческого мозга [2].

В ее основе лежат 2 взаимозависимых рекуррентных модуля:
Первый, высокоуровневый модуль (H-модуль), отвечает за медленное, абстрактное планирование, подобно тета-волнам в мозге.
Второй, низкоуровневый модуль (L-модуль), занимается быстрыми и детализированными вычислениями, аналогично гамма-волнам.
Эта структура дает модели достигать вычислительной глубины, необходимой для сложных рассуждений, при этом сохраняя стабильность и эффективность во время обучения [3], чего так не хватает стандартным трансформерам.

Процесс кардинально отличается от того, что происходит в обычных рекуррентных сетях, которые склонны к преждевременной сходимости, когда их скрытое состояние быстро стабилизируется, и дальнейшие вычисления практически прекращаются. В HRM все иначе:
Сначала быстрый L-модуль выполняет серию итераций, находя локальное равновесие для текущего шага задачи. Его итоговое состояние передается медленному H-модулю.
H-модуль, в свою очередь, осмысливает полученный результат, выполняет один шаг собственного, более абстрактного обновления и задает совершенно новый контекст для L-модуля.

Таким образом, вычислительный путь низкоуровневого модуля перезапускается, направляя его к новой точке локального равновесия. Механизм не дает системе застрять и позволяет ей последовательно выполнять множество различных, но взаимосвязанных этапов решения, выстраивая длинные логические цепочки.
Тестовая модель HRM с 27 млн. параметров, обученная всего на 1000 примерах без какого-либо претрейна или CoT-пар, показала неожиданно высокие результаты. На задачах, требующих глубокого поиска и перебора вариантов (Sudoku-Extreme) и поиск оптимального пути (Maze 30×30), HRM достигла почти идеальной точности, а вот CoT-методы полностью провалились с результатом 0%.
На бенчмарке ARC-AGI-1, HRM показывает точность в 40.3%. Для сравнения, o3-mini-high показала 34.5%, а Claude 3.7 с контекстом 8K – 21.2%.
Веса моделей для самостоятельного воспроизведения тестов:
ARC-AGI-2 [4];
[5]Sudoku 9×9 Extreme [6] (1000 examples);
Maze 30×30 Hard [7] (1000 examples);Лицензирование: Apache 2.0 License.
Делегируйте часть рутинных задач вместе с BotHub [8]! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [9] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: mefdayy
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/17702
URLs in this post:
[1] Hierarchical Reasoning Model: https://sapient.inc/blog/5
[2] мозга: http://www.braintools.ru/parts-of-the-brain
[3] обучения: http://www.braintools.ru/article/5125
[4] ARC-AGI-2: https://huggingface.co/sapientinc/HRM-checkpoint-ARC-2
[5] ;
: https://huggingface.co/sapientinc/HRM-checkpoint-ARC-2);%EF%BF%BC
[6] Sudoku 9×9 Extreme: https://huggingface.co/sapientinc/HRM-checkpoint-sudoku-extreme
[7] Maze 30×30 Hard: https://huggingface.co/sapientinc/HRM-checkpoint-maze-30x30-hard
[8] BotHub: https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=HIERARCHICAL_REASONING_MODEL_HIERARCHICAL_REASONING_MODEL_SIMULATING_HUMAN_BRAIN_FUNCTION
[9] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[10] Источник: https://habr.com/ru/companies/bothub/news/931108/?utm_source=habrahabr&utm_medium=rss&utm_campaign=931108
Нажмите здесь для печати.