ИИ-ускорители уперлись в предел скорости HBM. ai.. ai. CES2026.. ai. CES2026. HBM4E.. ai. CES2026. HBM4E. Блог компании BotHub.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь. ИИ.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь. ИИ. ии-ускорители.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь. ИИ. ии-ускорители. искусственный интеллект.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь. ИИ. ии-ускорители. искусственный интеллект. научно-популярное.. ai. CES2026. HBM4E. Блог компании BotHub. Будущее здесь. ИИ. ии-ускорители. искусственный интеллект. научно-популярное. нейросеть.
ИИ-ускорители уперлись в предел скорости HBM - 1

По оценкам представителей отрасли, современные ИИ-ускорители в своем развитии достигли того этапа, когда пропускная способность интерфейса памяти становится узким местом на пути дальнейшего масштабирования быстродействия. Дефицит памяти или ее объем в этом отношении уходят на второй план, и устранение этого барьера главным образом зависит от разработчиков GPU и больших языковых моделей.

По словам сооснователя Majestic Labs Ша Рабии (Sha Rabii), на которого ссылается CNBC, если непосредственно ускорители вычислений в последние годы продвинулись в своем быстродействии весьма значительно, сопутствующая им память стала не особо быстрее. По сути, именно производительность памяти ограничивает сейчас дальнейший рост быстродействия больших языковых моделей. При этом переход к инференсу увеличит потребности в объеме памяти, так что спрос на нее будет расти очень быстро. В любом случае, чем больше в инфраструктуре ИИ памяти, тем большее количество клиентов она способна обслуживать в единицу времени. О необходимости наращивать объемы выпуска памяти на CES 2026 говорил и основатель Nvidia Дженсен Хуанг (Jensen Huang). Он даже отметил, что покупатели игровых решений компании типа видеокарт и консолей обижены на отрасль ИИ, поскольку дефицит памяти толкает цены вверх даже в указанных смежных сегментах рынка.

Даже запланированный AMD и Nvidia переход на использование памяти типа HBM4 не позволит полностью решить проблему пропускной способности. Память этого семейства все равно ограничена в количестве задействованных каналов и высоте стека микросхем, не говоря уже о ширине интерфейса. Пропускная способность вычислительных систем могла бы масштабироваться гораздо эффективнее, если бы не свойственные HBM ограничения. Наращивать количество вычислительных блоков в составе GPU в таких условиях не имеет особого смысла, ибо память не будет успевать передавать все данные при вычислительных нагрузках, имеющих отношение как к обучению больших языковых моделей, так и инференсу.

Доступные разработчикам компонентов методы упаковки чипов также выступают в роли специфического ограничивающего фактора, в условиях высокого спроса профильные мощности сильно загружены, усиливая дефицит скоростной памяти и повышая расходы производителей.

На архитектурном уровне разработчики пытаются изучать альтернативы типа осуществления вычислений прямо внутри микросхем памяти (PIM), увеличения плотности компоновки микросхем в составе стека памяти, а также применения в многокристальных решениях прогрессивных интерфейсов типа UCIe, которые позволяют не только увеличить эффективную полосу пропускания, но и снизить задержки при работе с данными. Темпы дальнейшего масштабирования инфраструктуры ИИ будут зависеть от прогресса в сфере внедрения более скоростной памяти.

HBM4 предложит прирост быстродействия в полтора раза относительно HBM3E, позволяя через свою более широкую 2048-разрядную шину передавать до 2 терабайт данных в секунду. К 2027 году на арену выйдет память типа HBM4E, которая потенциально увеличить скорость передачи информации еще в полтора раза. Внедрение интерфейса CXL также должно способствовать повышению эффективности обмена данными между компонентами вычислительных систем. В части памяти переход к CXL обеспечит увеличение степени загрузки на 50%, а также снижение энергопотребления на величину до 20–30%. Появление новых методов трехмерной компоновки памяти тоже должно способствовать повышению производительности и снижению энергопотребления.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник

Автор: MrRjxrby

Источник

Rambler's Top100