
На связи Т1 Облако. Если вы интересуетесь генеративным ИИ, то наверняка знаете, что LLM давно превратились из хайповой игрушки в рабочий инструмент для множества бизнес‑задач: от создания небольших чат‑ботов для клиентской поддержки до крупных мультимодальных моделей для генерации текстов, изображений и видео.
И хотя обучение и инференс моделей остаются основной причиной роста спроса на GPU, для участия в этой «вечеринке» не всегда нужен суперкар уровня H100 или H200. Речь о том, чтобы оптимально подобрать GPU под конкретный сценарий, будь то обучение скромного чат‑бота на внутренних руководствах, проектирование или обработка терабайтов видео в 8K или создание корпоративной базы знаний для бигтеха. Под каждый сценарий — свой тип ускорителя, чтобы не ехать за хлебом на Феррари. Именно поэтому мы не стали ставить во все серверы исключительно флагманские видеокарты, а расширили линейку GPU различными моделями как для инференса, так и для гибридных сценариев.
Поделимся техническим обзором серверов с графическими ускорителями H200 и L40S, и их фотографиями прямо из ЦОДа. Расскажем не только о тензорных ядрах, Infiniband и видеопамяти, но и о том, как эти технологии помогают нашим клиентам развиваться.
Сравнение H200 с младшими братьями
H200, по сути, логическое продолжение модели H100, только усовершенствованное в некоторых аспектах. Обе модели построены на архитектуре NVIDIA Hopper и предназначены для генеративного ИИ и высокопроизводительных вычислений (HPC), включая обучение и инференс LLM.
Однако H200 превосходит предшественников по многим параметрам, начиная с объёма видеопамяти и пропускной способности и заканчивая ростом производительности в различных задачах. Подробные спецификации H200 вы найдёте на сайте Nvidia, а ниже кратко сравним основные характеристики H200 и других графических ускорителей марки Nvidia, которые представлены в Т1 Облако:
|
Модель |
A100 |
H100 |
H200 |
|
Объём видеопамяти |
80 ГБ |
80 Гб |
141 ГБ (+76% к показателям H100) |
|
Пропускная способность памяти |
2,039 ТБ/с |
3,35 ТБ/с |
4,8 ТБ/с (+43% к показателям H100) |
|
Тип памяти |
HBM2e |
HBM2e |
HBM3e |
|
Количество ядер CUDA |
6 912 |
14 592 |
16 896 |
|
Количество тензорных ядер |
432 |
456 |
528 |
Если резюмировать, то основная особенность H200 — значительный рост пропускной способности и объёма памяти. Эти показатели критически важны для задач обучения и инференса.
Об L40S замолвите слово
Nvidia L40S отличается от других графических ускорителей своей универсальностью. Эта модель подходит как для обучения и инференса небольших и средних ИИ‑моделей, так и для трёхмерного рендеринга, графических задач и обработки видео. Она уступает в мощности таким колоссам, как H100 и H200, но зато находится на одном уровне с топовыми потребительскими видеокартами и даже превосходит их по ряду характеристик.
Ниже небольшое сравнение профессионального решения L40S и топовой десктопной видеокарты GeForce RTX 4090: обе построены на архитектуре Ada Lovelace:
|
Модель |
L40S |
GeForce RTX 4090 |
|
Объем видеопамяти |
48 ГБ GDDR6 |
24 ГБ GDDR6 |
|
Пропускная способность памяти |
864 ГБ/с |
1,008 ГБ/с |
|
Тип памяти |
GDDR6 |
GDDR6X |
|
Количество ядер CUDA |
18 176 (+11% к производительности) |
16 384 |
|
Количество тензорных ядер |
568 |
512 |
|
Форм‑фактор |
PCIe 4.0 x16 |
PCIe 4.0 x16 |
Рассмотрим серверы поближе
К нам приехали вот такие красавчики: в каждом установлено по восемь NVIDIA H200, как на фото. Один такой крепыш весит около 107 кг:

Расчётное энергопотребление этого сервера — в районе 5,5–6,5 кВт. Такая прожорливость стала причиной, что в стойке на 7 кВт «живёт» только один сервер с H200:

Спецификация сервера с H200:
-
два процессора Intel Xeon Platinum 8462Y+ 2,8 ГГц;
-
2 ТБ оперативной памяти DDR5 4800 МГц с поддержкой RDIMM;
-
восемь Nvidia H200, каждая оснащена 141 ГБ памяти;
-
интерфейс видеокарт — SMX;
-
три сетевые карты Mellanox ConnectX-6 Lx 10/25GbE SFP28 2-Port;
-
восемь сетевых карт Nvidia ConnectX-7 Single Port NDR для InfiniBand.
Фотообзор L40S
Сервер с L40S тоже рассчитан на восемь видеокарт. Инженерам ЦОДа с ним полегче, так как в нём всего 39 кг.

Потребляет наш герой около 3 кВт электроэнергии, и поэтому в одной стойке на 10 кВт дружно живут три сервера.
Спецификация сервера с L40S:
-
два процессора AMD EPYC 9374F 32C 3,85 ГГц;
-
1,5 Тб оперативной памяти DDR5 4800 МГц;
-
восемь Nvidia L40S, каждая оснащена 48 ГБ памяти;
-
интерфейс видеокарты — PCIe Gen4.
«Скоростное шоссе» для передачи данных
Чтобы превращать отдельные графические ускорители в высокопроизводительные вычислительные среды, мы используем высокоскоростную сетевую технологию Infiniband. Она помогает объединить серверы с GPU H200 в одну скоростную сеть с пропускной способностью до 400 ГБ/с между виртуальными машинами. При этом практически отсутствует задержка в передаче данных. Это важно для эффективного обучения огромных LLM и других задач, когда даже миллисекунда задержки в сети может значительно повлиять на всю скорость обучения модели.
Кроме того, мы используем технологию GPUDirect RDMA, которая позволяет GPU напрямую обмениваться данными через сеть InfiniBand, минуя процессор и системную память. Таким образом, не только снижаются задержки, но и освобождается процессор для других задач, повышая общую эффективность системы.
Процессор тоже на уровне
Как мы знаем, производительность вычислений зависит не только от параметров видеокарты, но и от характеристики центрального процессора. Архитектура каждого GPU‑сервера с H200 основана на двух мощных серверных процессорах пятого поколения Intel Xeon Platinum 8462Y+ с 2,8 ГГц и 2 ТБ оперативной памяти. Они помогают ускорять операции, часто встречающиеся в моделях глубокого обучения.
В каждом сервере с L40S стоят по два центральных процессора AMD EPYC 9374F 32C с 3,85 ГГц и 1,5 ТБ оперативной памяти.
Примеры использования
-
Команда экспертов и технических специалистов Сайбокс, которые занимаются развитие LLM, использует наши ресурсы для обучения своих моделей. Подробнее об этом мы рассказывали в этой статье.
-
Один из наших клиентов, Альфа‑Банк, использует серверы с H200, чтобы тестировать и развивать технологии на основе генеративного искусственного интеллекта. Компания широко применяет ИИ‑помощников, чтобы экономить время клиентов и упрощать работу сотрудников в разных подразделениях.
-
Крупнейшая сеть детских товаров с помощью вычислительных мощностей GPU Т1 Облако обучает крупные ML‑модели и на их основе развивает программы лояльности для клиентов и создаёт персонализированные промокоды.
О других примерах и сценариях использования GPU читайте в другой нашей статье.
Напомним, что видеокарты NVIDIA H200, L40S и другие модели доступны в облаке по модели GPU as a Service. Это означает, что можно сразу пользоваться сервисом, обучать ИИ‑модели и проверять гипотезы, создавать трёхмерные визуализации и реализовывать сложные и интересные проекты. После выполнения всех вычислений виртуальные GPU можно отключить, оплатив только период фактического использования карт.
Если хотите больше узнать о H200, L40S, возможностях Infiniband и других особенностях инфраструктурных технологий в облаке, с удовольствием обсудим с вами эти темы — пишите нам. А еще дадим протестировать наши графические ускорители, чтобы вы были уверены в их надежности и производительности.
Автор: T1_IT


