- BrainTools - https://www.braintools.ru -

Как Дженсен Хуанг переопределил понятие «ИИ-инфраструктура»?

Заказы на чипы на триллион долларов. Новый фреймворк для агентного ИИ, который Дженсен сравнил с Linux. И одно высказывание с keynote GTC 2026, которое должно заставить каждого руководителя по данным прямо сейчас пересмотреть свою стратегию управления.

Как Дженсен Хуанг переопределил понятие «ИИ-инфраструктура»? - 1

Я смотрю keynote-выступления Дженсена Хуанга на GTC уже много лет. Он театрален, точен и всегда начинает с цифры, достаточно большой, чтобы вы засомневались — правильно ли расслышали.

В этом году, сидя перед ноутбуком утром понедельника и наблюдая трансляцию из SAP Center в Сан-Хосе, цифра была триллион долларов.

Не триллион рыночной капитализации. Не триллион прогнозируемого объёма ИИ-рынка. Триллион долларов подтверждённых заказов на чипы NVIDIA Blackwell и Vera Rubin до 2027 года. В прошлом году цифра составляла 500 миллиардов. Дженсен удвоил её за двенадцать месяцев.

Я руковожу командами по data science, аналитике и платформенной инженерии. Я внедряю ИИ в продакшн. И должен вам сказать: keynote GTC 2026 был не столько про чипы. Это было заявление о том, чего агентная эра на самом деле требует от корпоративной инфраструктуры данных — и большинство организаций к этому опасно не готовы.

Позвольте объяснить, что я имею в виду.


К слову об инструментах. Пока одни говорят о триллионных инвестициях и будущем инфраструктуры, другим нужно работать уже сегодня. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini и другим — без привязки к одному провайдеру и без сложной настройки, посмотрите на BotHub. Единый API, единый баланс, простой старт.

Как Дженсен Хуанг переопределил понятие «ИИ-инфраструктура»? - 2

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов [1]  для первых задач и приступить к работе с нейросетями прямо сейчас!


Цифра, которая важнее триллиона

Дженсен говорил два часа. Анонсы чипов — Vera Rubin, Groq 3 LPU, архитектура стоек Kyber — получили основное освещение в прессе.

Но высказывание, которое заставило меня остановиться, пришло от чип-аналитика в материалах накануне мероприятия: «Это новая инфраструктура: строительство с нуля — стойки CPU, единственная задача которых — запускать агентный ИИ. Ваше программное обеспечение будет располагаться в другом месте, ваши ускорители будут только генерировать токены, но что-то должно находиться посередине и оркестрировать всё это».

Это не история про GPU. Это история про системную архитектуру.

Вот что происходит на самом деле. ИИ-нагрузки 2023 и 2024 годов были преимущественно обучающими и инференс-нагрузками умеренного масштаба. Вы скармливали модели много данных, получали результат, двигались дальше. Узким местом была пропускная способность GPU.

Агентный ИИ — это другое. Когда ИИ-агент оркестрирует 10 суб-агентов, вызывает 50 инструментов, поддерживает контекст через множество параллельных рабочих процессов — узким местом становится не сырая GPU-вычислительная мощность. Это слой оркестрации. Это перемещение данных. Это CPU, выполняющий координационную работу.

Дженсен сам сказал это на звонке NVIDIA по итогам квартала в прошлом месяце: «Количество генерируемых токенов реально выросло экспоненциально, и нам нужно делать инференс на гораздо более высокой скорости». Он упомянул агентный ИИ дюжину раз за тот звонок.

Ответ NVIDIA — Vera Rubin, который, по их заявлениям, выдаёт в 50 раз больше токенов на ватт, чем Blackwell H200. И новый Vera CPU, специально спроектированный для слоя оркестрации агентных рабочих процессов.

Для руководителей по данным: инфраструктура, которую ваша команда планирует на 2026 год, возможно, спроектирована для решения не той проблемы.


OpenClaw, NemoClaw и почему Дженсен сравнил это с Linux

Анонс, к которому я не был полностью готов, — это OpenClaw.

OpenClaw — это open-source фреймворк для агентного ИИ, созданный австрийским разработчиком Питером Штайнбергером. Дженсен назвал его «самым быстрорастущим open-source проектом в истории» — смелое заявление, но кривые роста, которые я видел от сообщества, подтверждают ажиотаж. Фреймворк позволяет агентам получать доступ к файлам, подключаться к LLM, использовать инструменты, планировать задачи и порождать суб-агентов.

Дженсен сравнил это с Linux. Это не случайная аналогия из его уст. Linux стал операционной системой, на которой построены корпоративные вычисления. Хуанг предполагает, что OpenClaw — это операционная система для агентной эры.

Вклад NVIDIA: NemoClaw — корпоративный защищённый референсный дизайн, который оборачивает OpenClaw элементами управления, хуками для комплаенса и корпоративными политиками безопасности. Он подключается к любому существующему корпоративному движку политик, чтобы организации могли управлять поведением [2] агентов по своим собственным правилам соответствия.

В момент, когда я это увидел, я созвал экстренную встречу с руководителем платформенной инженерии.

Потому что вот проблема, с которой мы тихо боремся: наши текущие фреймворки управления ИИ были спроектированы для мира, где люди делают запросы, а модели отвечают. Они не спроектированы для мира, где агенты порождают агентов, которые порождают суб-агентов, которые делают тысячи вызовов инструментов параллельно.

NemoClaw — это ответ NVIDIA на этот разрыв в управлении. И само его существование говорит нам кое-что важное: проблема управления реальна, и она наступает быстрее, чем большинство организаций готовы.


История данных, спрятанная в keynote

Keynote Дженсена был, по сути, историей о данных, одетой в GPU-одежды.

Его центральный аргумент — наиболее чётко сформулированный в блог-посте той же недели под названием «ИИ — это пятислойный торт» — состоит в том, что ИИ зависит от пяти слоёв, которые все должны масштабироваться вместе: энергия, чипы, инфраструктура, модели и приложения. NVIDIA сидит посередине и касается всех пяти.

Но к чему он возвращался снова и снова, разными словами на протяжении всего выступления, было вот что: структурированные данные снова в центре корпоративного ИИ.

Партнёрство IBM-NVIDIA, объявленное на GTC, сделало это явным. Они используют CUDA GPU-ускорение в движке IBM Presto SQL для драматического ускорения выполнения запросов на больших корпоративных датасетах. Цитата Дженсена из анонса IBM: «Данные — это ground truth, которая даёт ИИ контекст и смысл».

Для корпоративных команд по данным это высказывание содержит и комплимент, и предупреждение.

Комплимент: ваша инфраструктура данных важна как никогда. Хорошо управляемые, качественные, доступные данные — это топливо для всего, что описал Дженсен.

Предупреждение: если ваши данные не готовы — если они разрознены, плохо управляются, непоследовательно определены — агентный ИИ обнаружит это быстрее, чем ваши аналитические дашборды когда-либо обнаруживали. Агенты не отскакивают вежливо от плохих данных. Они генерируют уверенные, дорогие, неправильные результаты в масштабе.


Что архитектура Vera Rubin означает для вашего инфраструктурного бюджета

Позвольте быть конкретным насчёт разговора о железе — я знаю, что это читают платформенные инженеры.

Vera Rubin выдаёт примерно в 50 раз больше токенов на ватт, чем Blackwell H200, согласно данным Semi Analysis, процитированным на GTC. В сочетании с чипом Groq 3 LPX через NVIDIA Dynamo система выдаёт в 35 раз больше пропускной способности на мегаватт.

На практике: экономика запуска масштабных агентных рабочих нагрузок скоро драматически изменится. Стоимость миллиона токенов, сгенерированных в высокопроизводительной агентной среде на инфраструктуре Vera Rubin, будет выглядеть совсем иначе, чем то, под что вы бюджетируете сегодня.

Если вы сейчас занимаетесь планированием инфраструктуры — облачные контракты, on-prem GPU-инвестиции, решения по гибридной архитектуре — вы принимаете эти решения, не зная реальных кривых стоимости за токен того железа, которое будет доминировать на рынке через 18 месяцев.

Это некомфортно. Вот как я с этим справляюсь:

Я закладываю гибкость в наши инфраструктурные обязательства. Более короткие сроки контрактов, где возможно. Архитектура, которая может перемещать рабочие нагрузки между облачными провайдерами по мере изменения цен. On-prem эксперименты с open-source моделями на текущем поколении железа — не предполагая, что нам нужно ждать Vera Rubin для запуска сложных агентных рабочих процессов.

И я бюджетирую под мир, где стоимость инференса за токен продолжает падать на 60–80% ежегодно. Инвестиции, которые имеют смысл при таких кривых стоимости, сильно отличаются от инвестиций, которые имели смысл в 2024 году.


Сигнал на триллион: что он означает для вашей ИИ-стратегии

Давайте отступим на шаг и подумаем, что на самом деле сигнализирует триллион долларов заказов на чипы.

NVIDIA не принимает заказы на чипы, за которыми не стоят подтверждённые покупатели. За этим триллионом — гиперскейлеры, суверенные ИИ-инициативы и крупные предприятия, берущие многолетние обязательства по строительству ИИ-инфраструктуры.

Послание простое: гонка вооружений в инфраструктуре не замедляется. Если что — она ускоряется.

Для руководителей по данным в средних компаниях и организациях, которые не являются гиперскейлерами, это создаёт и давление, и возможность.

Давление: разрыв между тем, на что способна передовая ИИ-инфраструктура, и тем, к чему имеет доступ ваша организация, будет расширяться, прежде чем сузиться. Гиперскейлеры строят рвы, измеряемые в экзафлопсах.

Возможность: по мере строительства передовой инфраструктуры, возможности, которые она производит, в конечном счёте становятся доступны через API по снижающимся ценам. Вычисления класса Vera Rubin, которые сегодня могут развернуть только Google и Microsoft, будут доступны через стандартные API-вызовы в течение двух-трёх лет.

Что означает: выигрывают не организации, пытающиеся соревноваться с гиперскейлерами по железу. Выигрывают те, кто строит фундамент данных, фреймворки управления и командные компетенции, которые позволят эксплуатировать эти API-доступные возможности, когда они появятся.


Что я делаю прямо сейчас

Я провёл 48 часов после keynote, делая три вещи.

Первое: я инициировал обзор нашего текущего фреймворка управления агентами. У нас есть политики того, как модели получают доступ к данным. У нас нет политик того, как агенты получают доступ к данным в масштабе, порождают суб-агентов или делают вызовы инструментов вне циклов человеческой проверки. Этот разрыв должен быть закрыт до того, как мы отгрузим первый продакшн агентный пайплайн — или у нас будет очень неприятный инцидент.

Второе: я привлёк руководителя платформенной инфраструктуры к разговорам о нашей вычислительной дорожной карте на 2026–2027 годы. Таймлайн Vera Rubin релевантен для любых GPU-инвестиций, которые мы рассматриваем on-prem. Экономика за токен релевантна для нашего моделирования облачных затрат. Мы не меняем дорожную карту на основании keynote, но мы стресс-тестируем наши допущения.

Третье: я запустил инициативу по документированию нашего слоя управления данными. Если тезис Дженсена верен — что данные это ground truth для всего, что делают агенты — тогда наше качество данных, lineage и контроль доступа теперь напрямую влияют на надёжность ИИ в продакшне. Это более сложный разговор с владельцами данных, но это правильный разговор.


Неудобный вопрос с GTC 2026

Дженсен Хуанг провёл два часа в SAP Center, выстраивая один аргумент: ИИ теперь — инфраструктура промышленного масштаба, токены — это продукт, и каждый корпоративный слой должен быть перепроектирован вокруг этого факта.

Он прав. Я наблюдаю этот сдвиг в собственной организации уже 18 месяцев. Инструментарий зреет быстрее, чем организационная готовность. Инфраструктура масштабируется быстрее, чем управление.

Keynote GTC подтвердил то, что я говорю своему руководству с четвёртого квартала 2025 года: вопрос больше не в том, будет ли ваша организация внедрять агентный ИИ. Вопрос в том, готова ли ваша инфраструктура данных быть той ground truth, на которую эти агенты будут опираться.

Большинство организаций, с которыми я общаюсь: их данные не готовы. Их фреймворки управления не готовы. Их команды не думают об агентном ИИ в масштабе инфраструктуры.

NVIDIA только что сказала нам, что железо приходит в любом случае.

Готовы ли ваши данные стать фундаментом, на котором оно будет работать?

Вот вопрос, с которым я ушёл с GTC 2026. И я подозреваю, что именно этот вопрос определит, какие команды по данным построят что-то устойчивое в 2026 году — а какие проведут год, разгребая последствия того, как агенты уверенно обработали плохие данные в масштабе.


Как выглядит ваш фреймворк управления для агентного ИИ прямо сейчас? Вы опережаете строительство инфраструктуры или догоняете? Буду рад услышать, как другие руководители по данным подходят к этому вопросу.

Автор: cognitronn

Источник [3]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/27999

URLs in this post:

[1] По ссылке вы можете получить 300 000 бесплатных токенов: https://bothub.chat/?invitedBy=iTNi-351UcHgc1BxGFWim

[2] поведением: http://www.braintools.ru/article/9372

[3] Источник: https://habr.com/ru/companies/bothub/articles/1016694/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1016694

www.BrainTools.ru

Rambler's Top100