- BrainTools - https://www.braintools.ru -

Привет, постоянные и не очень читатели!
CXL (Compute Express Link) — свежий стандарт интерконнекта, появившийся в 2019 году. Его главная фича — новый подход для работы с памятью [1] и вычислениями: поддержка когерентного кэша и трафика между процессорами и ускорителями, возможность собирать инфраструктуру как конструктор, гибко распределяя ресурсы, и другой функционал.
В этой статье я подробно расскажу про CXL (и при чём тут PCIe вообще). Кратко пройдёмся по истории этой технологии, посмотрим, что такое интерконнект, разберёмся, как и на чём CXL работает, на каком этапе развития находится и чего ждать в ближайшие годы.
Здесь будет всё, что вы хотели знать про CXL, но лень было искать, так что заваривайте чайничек листового — и приятного чтения! :)

Обычные компьютерные шины/интерфейсы для передачи данных, вроде PCIe (Peripheral Component Interconnect Express), перебрасывают данные из точки A в точку B (и обратно).
|
Важно! Расшифровку PCIe я сделал не просто так — эту технологию правильнее называть не шиной или интерфейсом, как это приянто, а интерконнектом (Interconnect в названии я выделил специально). |
Интерконнект — это по сути сеть точка-точка [2] (P2P, Point-to-point), где каждое устройство подключено отдельной линией к коммутатору или напрямую к процессору/чипсету. Каждая линия (lane) — это выделенный двунаправленный канал.
Поэтому PCIe — это скорее система соединений с топологией звезда [3] (через контроллер или свитч). У него есть адресация, маршрутизация пакетов, QoS [4], виртуальные каналы, а пропускная способность масштабируется за счёт количества линий (x1, x4, x8, x16) — всё это ближе к сетевому протоколу, чем к шине. Внутри PCIe есть своя логика [5] того, как устройства договариваются о передаче данных, как не допустить коллизий, в какой форме данные пересылаются (пакеты) и т.д.
И да, CXL — это тоже интерконнект. Более того, он использует физическую и электрическую основу PCIe, а сверху предлагает свои протоколы — вот зачем я рассказал вам про PCIe.
|
Важно! CXL работает, начиная с PCIe 5.0, а старые платформы (Xeon Scalable до Sapphire Rapids или EPYC до Genoa) не поддерживают CXL. Так что поставить карточку CXL в старый сервер не получится. |

CXL появился в 2019 году по инициативе Intel. У истоков стоял Джим Паппас (ныне директор технических инициатив в Intel). В начале 90-х он участвовал в разработке PCI и хорошо помнит, как стандартные слоты и гарантированная совместимость буквально перевернули рынок. PCI и PCIe обеспечили единые правила игры для производителей оборудования, и этот опыт [6] лёг в основу CXL.
Позже несколько компаний образовали целый консорциум из членов-основателей: Intel Corporation, Alibaba Group, Cisco Systems, Dell EMC, Meta (экстремисты в РФ), Google, Hewlett Packard Enterprise (HPE), Huawei и Microsoft. За шесть лет консорциум CXL вырос в сообщество с сотнями участников [7]. Формат участия гибкий [8]: есть бесплатный уровень Adopter (Пользователь) и платный Contributor (Участник, около $10 000 в год), который позволяет влиять на развитие технологии, даёт доступ к рабочим группам и промежуточным версиям спецификаций.
Итак, идея CXL была в том, чтобы развить уже знакомую всем экосистему PCIe, но добавить то, чего не хватало — когерентность кэша и трафика, пулы ресурсов и дезагрегрегацию.
|
Ремарка! Когерентность кэша и трафика в системе — когда все элементы системы (например CPU и GPU) работают с актуальными данными, даже если один из них внёс изменения. Представьте, что несколько человек читают один и тот же документ: стоит кому-то поправить строку — обновлённая версия сразу появляется у всех остальных. Дальше в статье разберём это понятие подробно. |
Эволюция [9] CXL — это пошаговое развитие.

CXL 1.0 (11 марта 2019 года) — проверка концепций на базе PCIe 5.0. В июне 2019 года вышла CXL 1.1. Центральный процессор может взаимодействовать с общей памятью на устройствах-ускорителях через протокол когерентности кэша.
CXL 2.0 (10 ноября 2020 года) — появились коммутация, масштабируемость, дезагрегация (общая память и хранилище), безопасность (защита и шифрование). Пропускная способность CXL 1.x (PCIe 5.0) сохранилась.
CXL 3.0 (2 августа 2022) — основан на PCIe 6.0 и кодировании PAM-4, удвоена пропускная способность. Добавлены сетевые возможности с многоуровневым переключением для создания масштабируемых систем, поддержка разных типов устройств на одном порту, улучшена согласованность при прямом доступе и совместном использовании памяти (устройства могут напрямую обмениваться данными, минуя центральный процессор, что значительно снижает задержки).
Дальнейшее развитие — CXL 3.1 (14 ноября 2023) и CXL 3.2 [10] (3 декабря 2024) с улучшениями в управлении памятью (например, внедряет Hot-Page Monitoring Unit для иерархий памяти), оптимизированным мониторингом устройств, улучшенной поддержкой ОС и приложений, плюс повышенной безопасностью (Trusted Security Protocol), которая включает новые функции хранения метабитов, расширяет возможности защиты IDE и усиливает проверку совместимости, обеспечивая более безопасную среду для приложений, работающих с конфиденциальными данными.
Но важно уточнить, что CXL не заменяет PCIe, а развивает его возможности. PCIe отлично справляется с периферией, а CXL фокусируется на когерентных соединениях и позволяет сильно уменьшить накладные расходы в задачах, где требуется память. При этом при инициализации устройство CXL вначале определяется системой как PCIe-устройство (чтобы BIOS/UEFI и ОС могли корректно стартовать), а затем уже договаривается о поддержке CXL-протоколов.
И сразу ещё одно важное уточнение! В реальных ЦОДах CXL-память на сегодня не заменяет DRAM, а дополняет её — что-то вроде второго уровня.

По сути дела, CXL — это высокоскоростной открытый стандарт интерконнекта для когерентной связи CPU-устройств (например, ускорителей, GPU, SSD) и CPU-памяти (позволяя процессору использовать память устройств как свою собственную и наоборот). CXL позволяет расширять память в форм-факторах, отличных от DIMM, например DRAM или PMem в виде накопителей EDSFF E1.S или E3.S. Дополнительные платы (AIC) можно вставлять в стандартные слоты PCIe, и они могут поддерживать стандартные модули DIMM
Важный момент — любое устройство CXL можно вставить в стандартный PCIe-слот (начиная с версии 5.0), ведь у них одинаковые разъёмы и базовая технология передачи данных. Так что CXL — это дальнейшее развитие PCIe, но при этом отдельная ветвь эволюции. PCI-SIG (разработчик PCI) учитывает эту особенность в спецификациях и формально закрепил возможность альтернативного протокола. Это не конкуренция, а развитие на общем фундаменте.

Если провести аналогию с автомобилестроением, PCIe — это добротный седан среднего класса со своим кузовом, шасси, колёсами и двигателем, а CXL — это комфортабельный кроссовер нового поколения, собранный на том же шасси седана, но у него совершенно другой салон, кузов, улучшенная аэродинамика, модифицированная подвеска, система управления, электроника, ПО и, самое главное, другая цель — он создан для дорог, где седан не проедет. Но, к слову, новый кроссовер требует другого обслуживания, как и CXL-системы требуют нового подхода к администрированию.
Итак, CXL основан на физическом слое PCIe, но вводит три новых протокола:
Сначала CXL.io [11] — это, по сути, PCIe с некоторыми расширениями для работы в рамках CXL (например, новые типы транзакций для управления когерентностью на уровне протокола). Он не уступает в скорости PCIe и обеспечивает базовое взаимодействие. И да — CXL.io [11] некогерентный. Одна физическая линия (lane) PCIe может нести трафик CXL.io [11], CXL.cache и CXL.mem одновременно, динамически распределяя полосу пропускания между ними, экономя ресурсы. PCIe так не умеет.
Дальше CXL.cache — этот протокол позволяет ускорителям (типа GPU или NIC) кэшировать данные из памяти хоста прямо у себя, с низкой задержкой, чтобы поддерживать когерентность своего локального кэша. Это снижает трафик на шине. Задержки минимальны — в диапазоне 60-100 нс для доступа к кэшу устройства, что кардинально меньше, чем у традиционных механизмов с программным обеспечением когерентности (которые могут занимать микросекунды).
Наконец, CXL.mem — он позволяет процессору хоста обращаться к памяти устройства как к своей собственной. Устройство выступает в роли агента памяти (Memory Device), и CPU использует обычные инструкции работы с памятью, как если бы это была его собственная DDR. Стандарт CXL изначально разрабатывался с учетом работы как с энергозависимой, так и с энергонезависимой памятью (Persistent Memory). В PCIe доступ к памяти устройства требует отдельного драйвера и происходит через барьеры и прерывания, что создает задержки и накладные расходы. CXL.mem интегрирует эту память в единое когерентное адресное пространство системы.
Совместно эти протоколы реализуют кэш-когерентный обмен данными между процессорами, устройствами и ускорителями. В результате система может динамически увеличивать объём оперативной памяти и ускорять обмен данными, не перегружая сетевые интерфейсы.

Сегодня в ЦОДах есть проблемы, которые ограничивают производительность оборудования и повышают стоимость владения.
Например, разрыв в задержках между DRAM и твердотельными накопителями огромен — около 1000 раз. У DIMM-модуля Micron DDR5 объёмом 96 ГБ и скоростью 4800 МТ/с задержка записи — всего 15,44 нс, тогда как у SSD Micron 7450 NVMe она уже 15 мкс. Когда у процессора заканчивается доступная DRAM и он вынужден выгружать данные на SSD, большая часть времени уходит не на вычисления, а на ожидание. Итог — резкое падение производительности.

Что ещё? Количество каналов в контроллерах памяти не успевает за увеличением количества ядер в многоядерных процессорах. Процессорным ядрам может не хватать пропускной способности памяти, что сводит к минимуму преимущество в большом количестве ядер. Например, у Intel Xeon 6 до 288 ядер обслуживаются всего 12 каналами памяти — нагрузка распределяется крайне неравномерно.
Добавим сюда ещё и то, что ускорители работают с собственной памятью. Ресурсы изолированы, а значит, часть ёмкости простаивает
Но CXL решает эти проблемы.

CXL позволяет превратить память из индивидуального ресурса каждого устройства в общий, динамически распределяемый пул, доступный всем компонентам системы. Это устраняет главную неэффективность традиционной архитектуры. К этому пулу по CXL могут обращаться все вычислительные узлы. Для них эта удалённая память выглядит и ведет себя почти как своя, локальная.
Но что самое крутое — пропускная способность складывается: если у CPU есть свой канал памяти с пропускной способностью X, а CXL-устройство добавляет еще память с пропускной способностью Y, то общая доступная полоса для системы становится X+Y. Для задач, которые могут использовать эту объединенную память, пропускная способность может увеличиться кратно (2x и более, зависит от конфигурации), по сравнению с использованием только локальной памяти CPU. Однако сама по себе скорость доступа к памяти на устройстве не обязательно выше, чем у нативной DDR памяти. Всё это справедливо, только если контроллеры памяти и приложения умеют эффективно распараллеливать доступ. На практике рост не всегда линейный.

|
Ремарка! Доступ к памяти через CXL чуть медленнее, чем к локальной DDR — это подтверждают тесты [12]: задержки растут, особенно при увеличении числа потоков. Но разрыв не сопоставим с тем, что возникает при обращении к SSD-накопителям, и тем более с удалёнными сценариями уровня RDMA. Можно утверждать, что CXL очень близок к DRAM. Важно учитывать NUMA-фактор. В экспериментах с numactl видно, что политика распределения памяти влияет на результаты: смешанный режим (interleave) позволяет получить результаты, близкие к локальной RAM, а при перекосе в сторону CXL-узла задержки растут. Админам стоит держать это в уме при проектировании систем. Для критически чувствительных к задержкам in-memory задач лучше предварительно тестировать систему, либо опираться на локальную память, но для сценариев вроде ML-обработки часть данных можно смело выносить в CXL-пул. |
Оперативная память физически привязана к материнской плате конкретного сервера, что приводит к недоиспользованию ресурсов в дата-центре? У GPU своя память (HBM), у CPU — своя (DDR). Память одного простаивает, а другому не хватает? Эти проблемы решает объединение памяти и дезагрегация: все CXL-устройства имеют прямой доступ к пулу, а жёсктая привязка — больше не проблема.
Это как если бы у каждого отдела компании был не свой собственный сейф (локальная память), а доступ к центральному банковскому хранилищу (пул CXL-памяти). Любой отдел (CPU, GPU) может положить или взять ровно столько денег (данных), сколько ему нужно в данный момент, без перевозки денег курьером (копирование данных через драйверы и DMA). Все работают напрямую с банковским хранилищем.
|
Как объединение памяти работает на практике? |
|
Проблема: в современных системах процессор (CPU) и ускорители (GPU, FPGA, ASIC для AI/ML) имеют свою собственную изолированную память. Чтобы GPU что-то посчитал, CPU должен: Скопировать данные из своей памяти в память GPU.Дождаться, пока GPU выполнит вычисления.Скопировать результаты обратно из памяти GPU в свою. Этот процесс копирования создаёт задержки и накладные расходы даже на быстрых интерконнектах. Решение от CXL: можно создать единое когерентное пространство памяти. Это значит, что CPU и GPU могут работать с одними и теми же согласованными данными в общей памяти без копирования. CPU может подготовить данные в памяти.GPU получает к ним прямой доступ и начинает вычисления практически мгновенно.Результаты сразу видны и CPU, и GPU. |
|
Как дезагрегация работает на практике? |
|
Можно сказать, что CXL — это аппаратная виртуализация ресурсов почти без накладных расходов и с минимальными задержками. Но если классическая виртуализация на гипервизорах позволила (VMware, Hyper-V, KVM) абстрагировать ПО от железа, то CXL позволяет абстрагировать само железо от его физического местоположения в серверной стойке. Это основа для по-настоящему дезагрегированных ЦОДов. Проблема: в традиционном сервере ресурсы жёстко привязаны. Вы покупаете серверы с конкретным количеством конкретных CPU, накопителей и планок памяти. Получается что-то вроде изолированных островов ресурсов, и иногда возникает дисбаланс: Одному серверу для работы, например с Big Data, нужно огромное количество памяти, но не очень много высокопроизводительных ядер.Другому серверу для рендеринга нужны мощные GPU, но не так много оперативной памяти.А какой-нибудь сервер для тестирования может большую часть времени простаивать, и его дорогая память и процессоры не используются. Решение от CXL: Вместо покупки дополнительного железа для каждого сервера можно создать общие когерентные пулы ресурсов (памяти, ускорителей) в масштабах стойки или целого ЦОДа из 4000 узлов (в версии CXL 3.0). Серверу для данных выделяется большое количество памяти из общего пула CXL-памяти.Серверу для рендеринга подключаются дополнительные GPU из пула ускорителей.А простаивающий сервер может вернуть свои ресурсы в общий пул, чтобы их могли использовать другие. Получаем дезагрегированную серверную архитектуру. |

Это позволяет устройствам, например процессору и ускорителю, работать с одной и той же областью памяти без противоречий в данных (коллизий). Важно, что это аппаратная когерентность, и она работает без участия ядра ОС. То есть ядро не перегружено синхронизацией страниц — огромный плюс для Linux/Windows Server.
Кто последний изменил данные? Чью версию видит CPU, а чью GPU? Как избежать копирования? Эти проблемы решает когерентность — все видят одну и ту же актуальную версию данных в одном месте.
Представьте: у завода и автосалона есть единая система логистики (CXL), позволяющая конвейеру завода (процессор) напрямую поставлять нужное количество автомобилей (данные) в магазин (GPU), минуя склад (копирование в буфер/память HBM [13]). Магазин (GPU) отправляет запрос (запрос DMA [14]), а завод производит и сразу отгружает только нужное количество авто. Нет посредников (когерентность) и перепроизводства/недопроизводства (не нужен большой запас/избыток памяти), уменьшаются издержки (коллизии, задержки), а товар не простаивает, ожидая перевозки (память используется эффективно).
|
Как когерентность памяти работает на практике? |
|
Проблема: в традиционных системах с ускорителями (GPU, FPGA) каждый участник вычислений — CPU, GPU, другие устройства — имеют свои собственные кэши для ускорения доступа к данным. Проблема в том, что не существует быстрого аппаратного механизма, который бы автоматически синхронизировал копии одних и тех же данных в разных кэшах. Это приводит к ситуации, когда: CPU может изменить значение в своей памяти, но GPU продолжит использовать устаревшую копию из своего кэша.GPU вычисляет новый результат и сохраняет его в своём кэше, но CPU об этом не узнает, пока данные не будут скопированы обратно. Решение от CXL: аппаратно-реализованный протокол когерентности памяти, который в реальном времени следит за всеми операциями чтения и записи. Все устройства подчиняются одному протоколу (как CXL.cache), который определяет, как сообщать об изменениях в данных.Если CPU изменяет данные в своей памяти, которые тоже есть в кэше GPU, аппаратный блок когерентности внутри CPU автоматически и немедленно отправляет GPU сигнал-уведомление (snoop).GPU получает этот сигнал и помечает свою устаревшую копию данных как невалидную. При следующем обращении к этим данным GPU автоматически запросит свежую версию непосредственно из памяти CPU или из кэша другого устройства.Весь этот процесс происходит на аппаратном уровне почти без накладных расходов. Для программного обеспечения и драйверов это выглядит так, словно все они работают с одной большой, общей и всегда актуальной памятью. |
Это вычисления с использованием разнородных вычислительных устройств. Например, ASIC-модули [15] намного эффективнее CPU и GPU общего назначения в задачах, для которых они созданы. Но встроить такие ускорители в IT-инфраструктуру обычно непросто. CXL решает вопрос через согласованное соединение с низкой задержкой между ASIC и процессорами общего назначения. В итоге приложения могут использовать специализированные чипы без переделывания архитектуры и переписывания половины кода.
Ну а раз мы заговорили про ASIC-модули, то самое время поговорить про типы CXL-устройств — там тоже не всё так очевидно.
CXL классифицирует устройства по возможностям на три основных типа.
Type 1 — простые ускорители без своей памяти, наподобие Smart NIC. Они используют только CXL.io и CXL.cache, чтобы кэшировать данные из хоста. Идеально для сетевых задач (парсинг, шифрование, фаерволы), где локальная память не нужна, а скорость доступа к данным CPU — очень даже.
Type 2 — это многофункциональные устройства, вроде GPU, ASIC или FPGA. Они работают по все трём протоколам: CXL.io для базового обмена, CXL.cache для кэширования памяти хоста и CXL.mem для доступа к собственной памяти (например, GDDR или HBM). Здесь возможны два режима смещения: device bias, когда приоритет у устройства, и host bias, когда баланс сохраняется за хостом. На практике это удобно, например, при обучении [16] нейросетей — GPU может напрямую обращаться к общему пулу памяти, минуя лишние копирования.
Type 3 — это чистые расширители памяти без вычислительных блоков. Они используют только CXL.io и CXL.mem и позволяют добавлять дополнительную память или persistent storage (хранит данные надёжно, как SSD или HDD, но быстро, например через NVDIMM, Intel Optane). По сути, это как внешний жёсткий диск, но с когерентным доступом и минимальными задержками. Основной сценарий — создание пулов памяти в дата-центрах, где, например, один модуль на 512 ГБ может обслуживать сразу несколько серверов.
Айтишникам CXL открывает возможности масштабирования через создание когерентных пулов памяти и дезагрегацию. Память, процессоры, ускорители и накопители могут использоваться как общие ресурсы для любых задач.
Но бизнесу важно другое — CXL повышает утилизацию оборудования (степень использования) и снижает общие расходы на инфраструктуру: капитальные расходы (CAPEX), и совокупную стоимость владения (TCO).
Например, Google Cloud в своём исследовании [17] сообщает, что до 40 % его памяти не используется; Azure сообщает [18], что 25 % памяти не используется, а 50 % арендованной памяти простаивает. Дезагрегация позволяет сократить общее использование памяти на 10 %, что в масштабах крупных гиперскейлеров может сэкономить миллиарды рублей.
В средних же компаниях выгода будет видна, скорее всего, при консолидации инфраструктуры (например, отказ от лишних серверов при тестовых средах или внедрении AI-решений).
Кроме того, CXL упрощает интеграцию нового оборудования в уже существующую IT-инфраструктуру, масштабирование, администрирования и т.д.
Также у бизнеса есть проблема, что огромное массивы корпоративной информации (60-73% [19]) хранятся без дела — их не используют для аналитики, а со временем удаляют. CXL как раз ускоряет обработку массивов данных (или делает то же самое за меньшие деньги), и крайне эффективен в HPC-задачах: AI, машинное обучение и аналитика больших данных.
В итоге CXL превращается в стратегический инструмент для бизнеса любого масштаба: он ускоряет обработку данных, повышает эффективность инфраструктуры и упрощает внедрение нового оборудования.

Если кратко, то картина такая. CXL 1.1/2.0 активно используется в продуктах, а 3.0/3.1/3.2 на подходе — в следующих поколениях. Новейшие устройства обычно появляются в продаже лишь через два-три года после выхода спецификации, так что ориентируемся на 2026-2027 года.
То что есть на рынке, это не прототипы — а готовые платформы, устройства и процессоры, которые можно купить и внедрить прямо сейчас. Современные прошивки серверов (например, iDRAC 10 у Dell, iLO 7 у HPE) уже интегрируют поддержку CXL-ресурсов в мониторинг. То есть админ в консоли управления сможет видеть загрузку и состояние CXL-модулей наряду с памятью, процессорами и накопителями. Это снижает порог внедрения.
Давайте расскажу о новинках с CXL.
Dell выпустила PowerEdge R670, R770 и R7725 с нативной поддержкой CXL 1.1/2.0. Эти модели на базе Intel Xeon 6 или AMD EPYC 9005, с слотами для CXL-памяти (Type 3, до 2 ТБ на узел).
HPE ProLiant DL380 Gen11 — флагман с CXL 2.0, позволяет объединять серверные ресурсы в общие пулы и динамически распределять их между задачами, повышая эффективность и снижая простои, идеален для AI/HPC. В ProLiant DL380 Gen12 добавили поддержку хранилища CXL — до 8 ТБ.
Lenovo ThinkSystem SR650 V4 тоже предлагает CXL 2.0 из коробки, с опциями для до 4 ТБ расширения.
Marvell Structera — семейство продуктов на основе CXL для масштабируемой и эффективной архитектуры ЦОДов. Structera CXL первыми в отрасли поддерживают четыре канала памяти, встроенное сжатие LZ4 и используют 5-нанометровый техпроцесс.
По сути это готовая платформа для CXL-контроллеров и ускорителей (модели Structera A и Structera X) для расширения памяти и обработки данных. Structera прошла полевое тестирование с DDR4/DDR5 и сертифицирована как с 5-м поколением Intel Xeon, так и с AMD EPYC.

Structera A — это CXL-ускорители с 16 ядрами ARM и четырьмя каналами памяти (для задач с высокой пропускной способностью, например, DLRM), а Structera X — это CXL-контроллеры расширения памяти, позволяющие добавить терабайты ОЗУ в сервер.
У Gigabyte есть AI Top CXL R5X4 — плата расширения на PCIe, добавляющая 512 ГБ регистровой DDR5 через CXL 2.0. Отличное решение для рабочих станций с чипсетами TRX50 (AMD Threadripper) и W790 (Intel Xeon W). Запущена недавно, в августе 2025, — просто вставляете в слот, и получаете когерентную память. Идеально для разработки, малых проектов AI или локальных/небольших внедрений ИИ, где нужно быстро апгрейдиться без замены всей системы.
CXL начинался как очередной стандарт от Intel (коих бесчисленное множество), но всего за шесть лет вырос в полноценную экосистему, в которую инвестируют, пожалуй, все крупные игроки. Его сила не только в технических преимуществах над PCIe — когерентность, объединение памяти, дезагрегация, но и в том, что он предлагает новое видение архитектуры для ЦОДов и крупных IT-инфраструктур. В том, что он может сэкономить деньги бизнесу и упростить жизнь айтишникам.
Если PCIe когда-то дал индустрии общий интерконнект, то CXL даёт общий язык для ресурсов серверов. Он снимает барьеры между CPU, GPU, FPGA и памятью, позволяя работать с данными, как с единым целым. Не исключено, что в будущем мы отойдём от понятия отдельных серверов с жёстко заданными конфигурациями, и прийдём к модульным ЦОДам, где память, ускорители и вычисления аппаратно подключаются и перераспределяются так же легко, как сейчас виртуальные машины делают это через абстракции, накладные расходы и ПО.
Ближайшее будущее — внедрение CXL 3.x в массовых продуктах, стандартизация поддержки в ОС и ПО, а также первые примеры крупных дезагрегированных инфраструктур в дата-центрах у гиперскейлеров. Следующий шаг — выход за пределы Enterprise, HPC и облаков. CXL пойдёт (и в каком-то роде уже пошел) в средние и малые корпоративные среды, где каждый специалист и каждый рубль на счету.
Можно спорить о сроках — станет ли CXL повсеместным стандартом через 5 лет или потребуется десятилетие. Но я делаю ставку на то, что эпоха, когда память и вычисления были жёстко привязаны к одному устройству, подходит к концу.
Спасибо, что прочитали этот лонгрид, друзья!
Автор: Barseadar
Источник [20]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20258
URLs in this post:
[1] памятью: http://www.braintools.ru/article/4140
[2] сеть точка-точка: https://www.google.com/url?q=https://ru.wikipedia.org/wiki/%25D0%25A1%25D0%25B5%25D1%2582%25D1%258C%5C_%25D1%2582%25D0%25BE%25D1%2587%25D0%25BA%25D0%25B0-%25D1%2582%25D0%25BE%25D1%2587%25D0%25BA%25D0%25B0&sa=D&source=editors&ust=1758723687903441&usg=AOvVaw1nLlOtcj2ETcCeiu%5C_O6bbl
[3] звезда: https://www.google.com/url?q=https://ru.wikipedia.org/wiki/%25D0%2597%25D0%25B2%25D0%25B5%25D0%25B7%25D0%25B4%25D0%25B0%5C_(%25D1%2582%25D0%25BE%25D0%25BF%25D0%25BE%25D0%25BB%25D0%25BE%25D0%25B3%25D0%25B8%25D1%258F%5C_%25D0%25BA%25D0%25BE%25D0%25BC%25D0%25BF%25D1%258C%25D1%258E%25D1%2582%25D0%25B5%25D1%2580%25D0%25BD%25D0%25BE%25D0%25B9%5C_%25D1%2581%25D0%25B5%25D1%2582%25D0%25B8)&sa=D&source=editors&ust=1758723687904023&usg=AOvVaw3ttTEyZxcMTzbh15KfN05a
[4] QoS: https://www.google.com/url?q=https://ru.wikipedia.org/wiki/QoS&sa=D&source=editors&ust=1758723687904239&usg=AOvVaw05WlAV3mfISgsBiFgBfahR
[5] логика: http://www.braintools.ru/article/7640
[6] опыт: http://www.braintools.ru/article/6952
[7] сотнями участников: https://www.google.com/url?q=https://computeexpresslink.org/our-members/&sa=D&source=editors&ust=1758723687905984&usg=AOvVaw3KI2RyNsiiJA477XjdZtfH
[8] гибкий: https://www.google.com/url?q=https://computeexpresslink.org/join-cxl/&sa=D&source=editors&ust=1758723687906156&usg=AOvVaw3O3-YGAv3icrHPzRB-xipj
[9] Эволюция: http://www.braintools.ru/article/7702
[10] CXL 3.2: https://www.google.com/url?q=https://www.newsdirectory3.com/cxl-3-2-performance-functionality-and-security-enhancements-for-ai/%23gsc.tab%3D0&sa=D&source=editors&ust=1758723687908326&usg=AOvVaw0iA4O2m1SztS%5C_IXcLyATN2
[11] CXL.io: http://CXL.io
[12] тесты: https://www.google.com/url?q=https://habr.com/ru/companies/selectel/articles/895416/&sa=D&source=editors&ust=1758723687915999&usg=AOvVaw0yBgUBzqM28gp9FGDDoccZ
[13] HBM: https://www.google.com/url?q=https://en.wikipedia.org/wiki/High%5C_Bandwidth%5C_Memory?ysclid%3Dmff8bxbuh3864423135&sa=D&source=editors&ust=1758723687922233&usg=AOvVaw35xv%5C_WKxaEPSZ8wPdqTX7Y
[14] DMA: https://www.google.com/url?q=https://ru.wikipedia.org/wiki/%25D0%259F%25D1%2580%25D1%258F%25D0%25BC%25D0%25BE%25D0%25B9%5C_%25D0%25B4%25D0%25BE%25D1%2581%25D1%2582%25D1%2583%25D0%25BF%5C_%25D0%25BA%5C_%25D0%25BF%25D0%25B0%25D0%25BC%25D1%258F%25D1%2582%25D0%25B8&sa=D&source=editors&ust=1758723687922484&usg=AOvVaw2Ju98Owquth0M6sRQXW08a
[15] ASIC-модули: https://www.google.com/url?q=https://habr.com/ru/companies/servermall/articles/849382/%23:~:text%3D%25D0%2592%25D1%258B%2520%25D0%25BD%25D0%25B0%25D0%25B2%25D0%25B5%25D1%2580%25D0%25BD%25D1%258F%25D0%25BA%25D0%25B0%2520%25D1%2581%25D0%25BB%25D1%258B%25D1%2588%25D0%25B0%25D0%25BB%25D0%25B8%2520%25D0%25BF%25D1%2580%25D0%25BE%2520%25D0%25BA%25D0%25BE%25D0%25BD%25D1%2586%25D0%25B5%25D0%25BF%25D1%2586%25D0%25B8%25D1%258E%2520ASIC%2520(Application%252DSpecific%2520Integrated%2520Circuit%252C%2520%25D0%25B8%25D0%25BD%25D1%2582%25D0%25B5%25D0%25B3%25D1%2580%25D0%25B0%25D0%25BB%25D1%258C%25D0%25BD%25D0%25B0%25D1%258F%2520%25D0%25BC%25D0%25B8%25D0%25BA%25D1%2580%25D0%25BE%25D1%2581%25D1%2585%25D0%25B5%25D0%25BC%25D0%25B0%2520%25D0%25B4%25D0%25BB%25D1%258F%2520%25D0%25BA%25D0%25BE%25D0%25BD%25D0%25BA%25D1%2580%25D0%25B5%25D1%2582%25D0%25BD%25D0%25BE%25D0%25B3%25D0%25BE%2520%25D0%25BF%25D1%2580%25D0%25B8%25D0%25BC%25D0%25B5%25D0%25BD%25D0%25B5%25D0%25BD%25D0%25B8%25D1%258F).&sa=D&source=editors&ust=1758723687925371&usg=AOvVaw0f5R1ptx8-NzCAVbNGL8gd
[16] обучении: http://www.braintools.ru/article/5125
[17] исследовании: https://www.google.com/url?q=https://research.google/pubs/borg-the-next-generation/&sa=D&source=editors&ust=1758723687928658&usg=AOvVaw2XBMxJ%5C_nGkoebf1ZRTZ-qG
[18] сообщает: https://www.google.com/url?q=https://www.microsoft.com/en-us/research/publication/pond-cxl-based-memory-pooling-systems-for-cloud-platforms/&sa=D&source=editors&ust=1758723687928915&usg=AOvVaw2S31TmgD3Zy4yBZT%5C_VNslW
[19] 60-73%: https://www.google.com/url?q=https://www.forrester.com/blogs/hadoop-is-datas-darling-for-a-reason/&sa=D&source=editors&ust=1758723687929633&usg=AOvVaw13dv31RhIkGorQDHm53Dgw
[20] Источник: https://habr.com/ru/companies/servermall/articles/950256/?utm_source=habrahabr&utm_medium=rss&utm_campaign=950256
Нажмите здесь для печати.