Заказы на чипы на триллион долларов. Новый фреймворк для агентного ИИ, который Дженсен сравнил с Linux. И одно высказывание с keynote GTC 2026, которое должно заставить каждого руководителя по данным прямо сейчас пересмотреть свою стратегию управления.

Я смотрю keynote-выступления Дженсена Хуанга на GTC уже много лет. Он театрален, точен и всегда начинает с цифры, достаточно большой, чтобы вы засомневались — правильно ли расслышали.
В этом году, сидя перед ноутбуком утром понедельника и наблюдая трансляцию из SAP Center в Сан-Хосе, цифра была триллион долларов.
Не триллион рыночной капитализации. Не триллион прогнозируемого объёма ИИ-рынка. Триллион долларов подтверждённых заказов на чипы NVIDIA Blackwell и Vera Rubin до 2027 года. В прошлом году цифра составляла 500 миллиардов. Дженсен удвоил её за двенадцать месяцев.
Я руковожу командами по data science, аналитике и платформенной инженерии. Я внедряю ИИ в продакшн. И должен вам сказать: keynote GTC 2026 был не столько про чипы. Это было заявление о том, чего агентная эра на самом деле требует от корпоративной инфраструктуры данных — и большинство организаций к этому опасно не готовы.
Позвольте объяснить, что я имею в виду.
К слову об инструментах. Пока одни говорят о триллионных инвестициях и будущем инфраструктуры, другим нужно работать уже сегодня. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini и другим — без привязки к одному провайдеру и без сложной настройки, посмотрите на BotHub. Единый API, единый баланс, простой старт.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Цифра, которая важнее триллиона
Дженсен говорил два часа. Анонсы чипов — Vera Rubin, Groq 3 LPU, архитектура стоек Kyber — получили основное освещение в прессе.
Но высказывание, которое заставило меня остановиться, пришло от чип-аналитика в материалах накануне мероприятия: «Это новая инфраструктура: строительство с нуля — стойки CPU, единственная задача которых — запускать агентный ИИ. Ваше программное обеспечение будет располагаться в другом месте, ваши ускорители будут только генерировать токены, но что-то должно находиться посередине и оркестрировать всё это».
Это не история про GPU. Это история про системную архитектуру.
Вот что происходит на самом деле. ИИ-нагрузки 2023 и 2024 годов были преимущественно обучающими и инференс-нагрузками умеренного масштаба. Вы скармливали модели много данных, получали результат, двигались дальше. Узким местом была пропускная способность GPU.
Агентный ИИ — это другое. Когда ИИ-агент оркестрирует 10 суб-агентов, вызывает 50 инструментов, поддерживает контекст через множество параллельных рабочих процессов — узким местом становится не сырая GPU-вычислительная мощность. Это слой оркестрации. Это перемещение данных. Это CPU, выполняющий координационную работу.
Дженсен сам сказал это на звонке NVIDIA по итогам квартала в прошлом месяце: «Количество генерируемых токенов реально выросло экспоненциально, и нам нужно делать инференс на гораздо более высокой скорости». Он упомянул агентный ИИ дюжину раз за тот звонок.
Ответ NVIDIA — Vera Rubin, который, по их заявлениям, выдаёт в 50 раз больше токенов на ватт, чем Blackwell H200. И новый Vera CPU, специально спроектированный для слоя оркестрации агентных рабочих процессов.
Для руководителей по данным: инфраструктура, которую ваша команда планирует на 2026 год, возможно, спроектирована для решения не той проблемы.
OpenClaw, NemoClaw и почему Дженсен сравнил это с Linux
Анонс, к которому я не был полностью готов, — это OpenClaw.
OpenClaw — это open-source фреймворк для агентного ИИ, созданный австрийским разработчиком Питером Штайнбергером. Дженсен назвал его «самым быстрорастущим open-source проектом в истории» — смелое заявление, но кривые роста, которые я видел от сообщества, подтверждают ажиотаж. Фреймворк позволяет агентам получать доступ к файлам, подключаться к LLM, использовать инструменты, планировать задачи и порождать суб-агентов.
Дженсен сравнил это с Linux. Это не случайная аналогия из его уст. Linux стал операционной системой, на которой построены корпоративные вычисления. Хуанг предполагает, что OpenClaw — это операционная система для агентной эры.
Вклад NVIDIA: NemoClaw — корпоративный защищённый референсный дизайн, который оборачивает OpenClaw элементами управления, хуками для комплаенса и корпоративными политиками безопасности. Он подключается к любому существующему корпоративному движку политик, чтобы организации могли управлять поведением агентов по своим собственным правилам соответствия.
В момент, когда я это увидел, я созвал экстренную встречу с руководителем платформенной инженерии.
Потому что вот проблема, с которой мы тихо боремся: наши текущие фреймворки управления ИИ были спроектированы для мира, где люди делают запросы, а модели отвечают. Они не спроектированы для мира, где агенты порождают агентов, которые порождают суб-агентов, которые делают тысячи вызовов инструментов параллельно.
NemoClaw — это ответ NVIDIA на этот разрыв в управлении. И само его существование говорит нам кое-что важное: проблема управления реальна, и она наступает быстрее, чем большинство организаций готовы.
История данных, спрятанная в keynote
Keynote Дженсена был, по сути, историей о данных, одетой в GPU-одежды.
Его центральный аргумент — наиболее чётко сформулированный в блог-посте той же недели под названием «ИИ — это пятислойный торт» — состоит в том, что ИИ зависит от пяти слоёв, которые все должны масштабироваться вместе: энергия, чипы, инфраструктура, модели и приложения. NVIDIA сидит посередине и касается всех пяти.
Но к чему он возвращался снова и снова, разными словами на протяжении всего выступления, было вот что: структурированные данные снова в центре корпоративного ИИ.
Партнёрство IBM-NVIDIA, объявленное на GTC, сделало это явным. Они используют CUDA GPU-ускорение в движке IBM Presto SQL для драматического ускорения выполнения запросов на больших корпоративных датасетах. Цитата Дженсена из анонса IBM: «Данные — это ground truth, которая даёт ИИ контекст и смысл».
Для корпоративных команд по данным это высказывание содержит и комплимент, и предупреждение.
Комплимент: ваша инфраструктура данных важна как никогда. Хорошо управляемые, качественные, доступные данные — это топливо для всего, что описал Дженсен.
Предупреждение: если ваши данные не готовы — если они разрознены, плохо управляются, непоследовательно определены — агентный ИИ обнаружит это быстрее, чем ваши аналитические дашборды когда-либо обнаруживали. Агенты не отскакивают вежливо от плохих данных. Они генерируют уверенные, дорогие, неправильные результаты в масштабе.
Что архитектура Vera Rubin означает для вашего инфраструктурного бюджета
Позвольте быть конкретным насчёт разговора о железе — я знаю, что это читают платформенные инженеры.
Vera Rubin выдаёт примерно в 50 раз больше токенов на ватт, чем Blackwell H200, согласно данным Semi Analysis, процитированным на GTC. В сочетании с чипом Groq 3 LPX через NVIDIA Dynamo система выдаёт в 35 раз больше пропускной способности на мегаватт.
На практике: экономика запуска масштабных агентных рабочих нагрузок скоро драматически изменится. Стоимость миллиона токенов, сгенерированных в высокопроизводительной агентной среде на инфраструктуре Vera Rubin, будет выглядеть совсем иначе, чем то, под что вы бюджетируете сегодня.
Если вы сейчас занимаетесь планированием инфраструктуры — облачные контракты, on-prem GPU-инвестиции, решения по гибридной архитектуре — вы принимаете эти решения, не зная реальных кривых стоимости за токен того железа, которое будет доминировать на рынке через 18 месяцев.
Это некомфортно. Вот как я с этим справляюсь:
Я закладываю гибкость в наши инфраструктурные обязательства. Более короткие сроки контрактов, где возможно. Архитектура, которая может перемещать рабочие нагрузки между облачными провайдерами по мере изменения цен. On-prem эксперименты с open-source моделями на текущем поколении железа — не предполагая, что нам нужно ждать Vera Rubin для запуска сложных агентных рабочих процессов.
И я бюджетирую под мир, где стоимость инференса за токен продолжает падать на 60–80% ежегодно. Инвестиции, которые имеют смысл при таких кривых стоимости, сильно отличаются от инвестиций, которые имели смысл в 2024 году.
Сигнал на триллион: что он означает для вашей ИИ-стратегии
Давайте отступим на шаг и подумаем, что на самом деле сигнализирует триллион долларов заказов на чипы.
NVIDIA не принимает заказы на чипы, за которыми не стоят подтверждённые покупатели. За этим триллионом — гиперскейлеры, суверенные ИИ-инициативы и крупные предприятия, берущие многолетние обязательства по строительству ИИ-инфраструктуры.
Послание простое: гонка вооружений в инфраструктуре не замедляется. Если что — она ускоряется.
Для руководителей по данным в средних компаниях и организациях, которые не являются гиперскейлерами, это создаёт и давление, и возможность.
Давление: разрыв между тем, на что способна передовая ИИ-инфраструктура, и тем, к чему имеет доступ ваша организация, будет расширяться, прежде чем сузиться. Гиперскейлеры строят рвы, измеряемые в экзафлопсах.
Возможность: по мере строительства передовой инфраструктуры, возможности, которые она производит, в конечном счёте становятся доступны через API по снижающимся ценам. Вычисления класса Vera Rubin, которые сегодня могут развернуть только Google и Microsoft, будут доступны через стандартные API-вызовы в течение двух-трёх лет.
Что означает: выигрывают не организации, пытающиеся соревноваться с гиперскейлерами по железу. Выигрывают те, кто строит фундамент данных, фреймворки управления и командные компетенции, которые позволят эксплуатировать эти API-доступные возможности, когда они появятся.
Что я делаю прямо сейчас
Я провёл 48 часов после keynote, делая три вещи.
Первое: я инициировал обзор нашего текущего фреймворка управления агентами. У нас есть политики того, как модели получают доступ к данным. У нас нет политик того, как агенты получают доступ к данным в масштабе, порождают суб-агентов или делают вызовы инструментов вне циклов человеческой проверки. Этот разрыв должен быть закрыт до того, как мы отгрузим первый продакшн агентный пайплайн — или у нас будет очень неприятный инцидент.
Второе: я привлёк руководителя платформенной инфраструктуры к разговорам о нашей вычислительной дорожной карте на 2026–2027 годы. Таймлайн Vera Rubin релевантен для любых GPU-инвестиций, которые мы рассматриваем on-prem. Экономика за токен релевантна для нашего моделирования облачных затрат. Мы не меняем дорожную карту на основании keynote, но мы стресс-тестируем наши допущения.
Третье: я запустил инициативу по документированию нашего слоя управления данными. Если тезис Дженсена верен — что данные это ground truth для всего, что делают агенты — тогда наше качество данных, lineage и контроль доступа теперь напрямую влияют на надёжность ИИ в продакшне. Это более сложный разговор с владельцами данных, но это правильный разговор.
Неудобный вопрос с GTC 2026
Дженсен Хуанг провёл два часа в SAP Center, выстраивая один аргумент: ИИ теперь — инфраструктура промышленного масштаба, токены — это продукт, и каждый корпоративный слой должен быть перепроектирован вокруг этого факта.
Он прав. Я наблюдаю этот сдвиг в собственной организации уже 18 месяцев. Инструментарий зреет быстрее, чем организационная готовность. Инфраструктура масштабируется быстрее, чем управление.
Keynote GTC подтвердил то, что я говорю своему руководству с четвёртого квартала 2025 года: вопрос больше не в том, будет ли ваша организация внедрять агентный ИИ. Вопрос в том, готова ли ваша инфраструктура данных быть той ground truth, на которую эти агенты будут опираться.
Большинство организаций, с которыми я общаюсь: их данные не готовы. Их фреймворки управления не готовы. Их команды не думают об агентном ИИ в масштабе инфраструктуры.
NVIDIA только что сказала нам, что железо приходит в любом случае.
Готовы ли ваши данные стать фундаментом, на котором оно будет работать?
Вот вопрос, с которым я ушёл с GTC 2026. И я подозреваю, что именно этот вопрос определит, какие команды по данным построят что-то устойчивое в 2026 году — а какие проведут год, разгребая последствия того, как агенты уверенно обработали плохие данные в масштабе.
Как выглядит ваш фреймворк управления для агентного ИИ прямо сейчас? Вы опережаете строительство инфраструктуры или догоняете? Буду рад услышать, как другие руководители по данным подходят к этому вопросу.
Автор: cognitronn


