- BrainTools - https://www.braintools.ru -
Micron презентовала [1] модуль оперативной памяти [2] формата SOCAMM2 объёмом 256 ГБ, что стало существенным скачком по сравнению с предыдущим порогом в 192 ГБ. Производитель указывает, что SOCAMM2 будет интегрирован в современное оборудование инфраструктуры искусственного интеллекта [3] и поможет решить проблему нехватки памяти.

Разработанный совместно с Nvidia стандарт SOCAMM2 отличается лучшей производительностью и энергоэффективностью благодаря использованию KV-кэша, что обеспечивает уменьшение задержки при обработке рабочих нагрузок.
В последней версии SOCAMM2 Micron увеличила ёмкость одного монолитного кристалла LPDRAM до 32 ГБ. В модели объёмом 256 ГБ обеспечивается до 2 ТБ LPDRAM на каждый 8-канальный процессор, что позволяет ИИ-серверам быстрее обрабатывать длинные контекстные окна.

Micron указывает, что с SOCAMM2 время отклика увеличилось в 2,3 раза для вывода данных с длинным контекстом. Это значительно помогает в решении задач, требующих работы с агентными нагрузками, где ключевую роль играют автономные приложения, выполняющиеся на ЦП.
SOCAMM2 разработали для обеспечения более высокой плотности в компактном форм-факторе по сравнению с RDIMM и LRDIMM. Подобные модули будут применять на платформе Vera Rubin [4].

Образцы SOCAMM2 объёмом 256 ГБ уже отгрузили клиентам. Продукт Micron представят на конференции Nvidia GTC 2026, которая пройдёт 16-19 марта этого года.
Автор: Travis_Macrif
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26582
URLs in this post:
[1] презентовала: https://www.micron.com/products/memory/lpddr-modules/socamm
[2] памяти: http://www.braintools.ru/article/4140
[3] интеллекта: http://www.braintools.ru/article/7605
[4] Vera Rubin: https://www.theverge.com/tech/855412/nvidia-launches-vera-rubin-ai-computing-platform-at-ces-2026
[5] Источник: https://habr.com/ru/news/1006464/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1006464
Нажмите здесь для печати.