- BrainTools - https://www.braintools.ru -

По оценкам представителей отрасли, современные ИИ-ускорители в своем развитии достигли того этапа, когда пропускная способность интерфейса памяти [1] становится узким местом на пути дальнейшего масштабирования быстродействия. Дефицит памяти или ее объем в этом отношении уходят на второй план, и устранение этого барьера главным образом зависит от разработчиков GPU и больших языковых моделей.
По словам сооснователя Majestic Labs Ша Рабии (Sha Rabii), на которого ссылается CNBC [2], если непосредственно ускорители вычислений в последние годы продвинулись в своем быстродействии весьма значительно, сопутствующая им память стала не особо быстрее. По сути, именно производительность памяти ограничивает сейчас дальнейший рост быстродействия больших языковых моделей. При этом переход к инференсу увеличит потребности [3] в объеме памяти, так что спрос на нее будет расти очень быстро. В любом случае, чем больше в инфраструктуре ИИ памяти, тем большее количество клиентов она способна обслуживать в единицу времени. О необходимости наращивать объемы выпуска памяти на CES 2026 говорил и основатель Nvidia Дженсен Хуанг (Jensen Huang). Он даже отметил, что покупатели игровых решений компании типа видеокарт и консолей обижены на отрасль ИИ, поскольку дефицит памяти толкает цены вверх даже в указанных смежных сегментах рынка.
Даже запланированный AMD и Nvidia переход на использование памяти типа HBM4 не позволит полностью решить проблему пропускной способности. Память этого семейства все равно ограничена в количестве задействованных каналов и высоте стека микросхем, не говоря уже о ширине интерфейса. Пропускная способность вычислительных систем могла бы масштабироваться гораздо эффективнее, если бы не свойственные HBM ограничения. Наращивать количество вычислительных блоков в составе GPU в таких условиях не имеет особого смысла, ибо память не будет успевать передавать все данные при вычислительных нагрузках, имеющих отношение как к обучению [4] больших языковых моделей, так и инференсу.
Доступные разработчикам компонентов методы упаковки чипов также выступают в роли специфического ограничивающего фактора, в условиях высокого спроса профильные мощности сильно загружены, усиливая дефицит скоростной памяти и повышая расходы производителей.
На архитектурном уровне разработчики пытаются изучать альтернативы типа осуществления вычислений прямо внутри микросхем памяти (PIM), увеличения плотности компоновки микросхем в составе стека памяти, а также применения в многокристальных решениях прогрессивных интерфейсов типа UCIe, которые позволяют не только увеличить эффективную полосу пропускания, но и снизить задержки при работе с данными. Темпы дальнейшего масштабирования инфраструктуры ИИ будут зависеть от прогресса в сфере внедрения более скоростной памяти.
HBM4 предложит прирост быстродействия в полтора раза относительно HBM3E, позволяя через свою более широкую 2048-разрядную шину передавать до 2 терабайт данных в секунду. К 2027 году на арену выйдет память типа HBM4E, которая потенциально увеличить скорость передачи информации еще в полтора раза. Внедрение интерфейса CXL также должно способствовать повышению эффективности обмена данными между компонентами вычислительных систем. В части памяти переход к CXL обеспечит увеличение степени загрузки на 50%, а также снижение энергопотребления на величину до 20–30%. Появление новых методов трехмерной компоновки памяти тоже должно способствовать повышению производительности и снижению энергопотребления.
Делегируйте часть рутинных задач вместе с BotHub! [5] Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [6] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Источник [7]
Автор: MrRjxrby
Источник [8]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/24184
URLs in this post:
[1] памяти: http://www.braintools.ru/article/4140
[2] CNBC: https://www.cnbc.com/2026/01/10/micron-ai-memory-shortage-hbm-nvidia-samsung.html
[3] потребности: http://www.braintools.ru/article/9534
[4] обучению: http://www.braintools.ru/article/5125
[5] BotHub!: https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=AI_ACCELERATORS_HIT_THE_HBM_SPEED_LIMIT
[6] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[7] Источник: http://www.cnbc.com/
[8] Источник: https://habr.com/ru/companies/bothub/news/984208/?utm_source=habrahabr&utm_medium=rss&utm_campaign=984208
Нажмите здесь для печати.