- BrainTools - https://www.braintools.ru -
Заказы на чипы на триллион долларов. Новый фреймворк для агентного ИИ, который Дженсен сравнил с Linux. И одно высказывание с keynote GTC 2026, которое должно заставить каждого руководителя по данным прямо сейчас пересмотреть свою стратегию управления.

Я смотрю keynote-выступления Дженсена Хуанга на GTC уже много лет. Он театрален, точен и всегда начинает с цифры, достаточно большой, чтобы вы засомневались — правильно ли расслышали.
В этом году, сидя перед ноутбуком утром понедельника и наблюдая трансляцию из SAP Center в Сан-Хосе, цифра была триллион долларов.
Не триллион рыночной капитализации. Не триллион прогнозируемого объёма ИИ-рынка. Триллион долларов подтверждённых заказов на чипы NVIDIA Blackwell и Vera Rubin до 2027 года. В прошлом году цифра составляла 500 миллиардов. Дженсен удвоил её за двенадцать месяцев.
Я руковожу командами по data science, аналитике и платформенной инженерии. Я внедряю ИИ в продакшн. И должен вам сказать: keynote GTC 2026 был не столько про чипы. Это было заявление о том, чего агентная эра на самом деле требует от корпоративной инфраструктуры данных — и большинство организаций к этому опасно не готовы.
Позвольте объяснить, что я имею в виду.
К слову об инструментах. Пока одни говорят о триллионных инвестициях и будущем инфраструктуры, другим нужно работать уже сегодня. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini и другим — без привязки к одному провайдеру и без сложной настройки, посмотрите на BotHub. Единый API, единый баланс, простой старт.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов [1] для первых задач и приступить к работе с нейросетями прямо сейчас!
Дженсен говорил два часа. Анонсы чипов — Vera Rubin, Groq 3 LPU, архитектура стоек Kyber — получили основное освещение в прессе.
Но высказывание, которое заставило меня остановиться, пришло от чип-аналитика в материалах накануне мероприятия: «Это новая инфраструктура: строительство с нуля — стойки CPU, единственная задача которых — запускать агентный ИИ. Ваше программное обеспечение будет располагаться в другом месте, ваши ускорители будут только генерировать токены, но что-то должно находиться посередине и оркестрировать всё это».
Это не история про GPU. Это история про системную архитектуру.
Вот что происходит на самом деле. ИИ-нагрузки 2023 и 2024 годов были преимущественно обучающими и инференс-нагрузками умеренного масштаба. Вы скармливали модели много данных, получали результат, двигались дальше. Узким местом была пропускная способность GPU.
Агентный ИИ — это другое. Когда ИИ-агент оркестрирует 10 суб-агентов, вызывает 50 инструментов, поддерживает контекст через множество параллельных рабочих процессов — узким местом становится не сырая GPU-вычислительная мощность. Это слой оркестрации. Это перемещение данных. Это CPU, выполняющий координационную работу.
Дженсен сам сказал это на звонке NVIDIA по итогам квартала в прошлом месяце: «Количество генерируемых токенов реально выросло экспоненциально, и нам нужно делать инференс на гораздо более высокой скорости». Он упомянул агентный ИИ дюжину раз за тот звонок.
Ответ NVIDIA — Vera Rubin, который, по их заявлениям, выдаёт в 50 раз больше токенов на ватт, чем Blackwell H200. И новый Vera CPU, специально спроектированный для слоя оркестрации агентных рабочих процессов.
Для руководителей по данным: инфраструктура, которую ваша команда планирует на 2026 год, возможно, спроектирована для решения не той проблемы.
Анонс, к которому я не был полностью готов, — это OpenClaw.
OpenClaw — это open-source фреймворк для агентного ИИ, созданный австрийским разработчиком Питером Штайнбергером. Дженсен назвал его «самым быстрорастущим open-source проектом в истории» — смелое заявление, но кривые роста, которые я видел от сообщества, подтверждают ажиотаж. Фреймворк позволяет агентам получать доступ к файлам, подключаться к LLM, использовать инструменты, планировать задачи и порождать суб-агентов.
Дженсен сравнил это с Linux. Это не случайная аналогия из его уст. Linux стал операционной системой, на которой построены корпоративные вычисления. Хуанг предполагает, что OpenClaw — это операционная система для агентной эры.
Вклад NVIDIA: NemoClaw — корпоративный защищённый референсный дизайн, который оборачивает OpenClaw элементами управления, хуками для комплаенса и корпоративными политиками безопасности. Он подключается к любому существующему корпоративному движку политик, чтобы организации могли управлять поведением [2] агентов по своим собственным правилам соответствия.
В момент, когда я это увидел, я созвал экстренную встречу с руководителем платформенной инженерии.
Потому что вот проблема, с которой мы тихо боремся: наши текущие фреймворки управления ИИ были спроектированы для мира, где люди делают запросы, а модели отвечают. Они не спроектированы для мира, где агенты порождают агентов, которые порождают суб-агентов, которые делают тысячи вызовов инструментов параллельно.
NemoClaw — это ответ NVIDIA на этот разрыв в управлении. И само его существование говорит нам кое-что важное: проблема управления реальна, и она наступает быстрее, чем большинство организаций готовы.
Keynote Дженсена был, по сути, историей о данных, одетой в GPU-одежды.
Его центральный аргумент — наиболее чётко сформулированный в блог-посте той же недели под названием «ИИ — это пятислойный торт» — состоит в том, что ИИ зависит от пяти слоёв, которые все должны масштабироваться вместе: энергия, чипы, инфраструктура, модели и приложения. NVIDIA сидит посередине и касается всех пяти.
Но к чему он возвращался снова и снова, разными словами на протяжении всего выступления, было вот что: структурированные данные снова в центре корпоративного ИИ.
Партнёрство IBM-NVIDIA, объявленное на GTC, сделало это явным. Они используют CUDA GPU-ускорение в движке IBM Presto SQL для драматического ускорения выполнения запросов на больших корпоративных датасетах. Цитата Дженсена из анонса IBM: «Данные — это ground truth, которая даёт ИИ контекст и смысл».
Для корпоративных команд по данным это высказывание содержит и комплимент, и предупреждение.
Комплимент: ваша инфраструктура данных важна как никогда. Хорошо управляемые, качественные, доступные данные — это топливо для всего, что описал Дженсен.
Предупреждение: если ваши данные не готовы — если они разрознены, плохо управляются, непоследовательно определены — агентный ИИ обнаружит это быстрее, чем ваши аналитические дашборды когда-либо обнаруживали. Агенты не отскакивают вежливо от плохих данных. Они генерируют уверенные, дорогие, неправильные результаты в масштабе.
Позвольте быть конкретным насчёт разговора о железе — я знаю, что это читают платформенные инженеры.
Vera Rubin выдаёт примерно в 50 раз больше токенов на ватт, чем Blackwell H200, согласно данным Semi Analysis, процитированным на GTC. В сочетании с чипом Groq 3 LPX через NVIDIA Dynamo система выдаёт в 35 раз больше пропускной способности на мегаватт.
На практике: экономика запуска масштабных агентных рабочих нагрузок скоро драматически изменится. Стоимость миллиона токенов, сгенерированных в высокопроизводительной агентной среде на инфраструктуре Vera Rubin, будет выглядеть совсем иначе, чем то, под что вы бюджетируете сегодня.
Если вы сейчас занимаетесь планированием инфраструктуры — облачные контракты, on-prem GPU-инвестиции, решения по гибридной архитектуре — вы принимаете эти решения, не зная реальных кривых стоимости за токен того железа, которое будет доминировать на рынке через 18 месяцев.
Это некомфортно. Вот как я с этим справляюсь:
Я закладываю гибкость в наши инфраструктурные обязательства. Более короткие сроки контрактов, где возможно. Архитектура, которая может перемещать рабочие нагрузки между облачными провайдерами по мере изменения цен. On-prem эксперименты с open-source моделями на текущем поколении железа — не предполагая, что нам нужно ждать Vera Rubin для запуска сложных агентных рабочих процессов.
И я бюджетирую под мир, где стоимость инференса за токен продолжает падать на 60–80% ежегодно. Инвестиции, которые имеют смысл при таких кривых стоимости, сильно отличаются от инвестиций, которые имели смысл в 2024 году.
Давайте отступим на шаг и подумаем, что на самом деле сигнализирует триллион долларов заказов на чипы.
NVIDIA не принимает заказы на чипы, за которыми не стоят подтверждённые покупатели. За этим триллионом — гиперскейлеры, суверенные ИИ-инициативы и крупные предприятия, берущие многолетние обязательства по строительству ИИ-инфраструктуры.
Послание простое: гонка вооружений в инфраструктуре не замедляется. Если что — она ускоряется.
Для руководителей по данным в средних компаниях и организациях, которые не являются гиперскейлерами, это создаёт и давление, и возможность.
Давление: разрыв между тем, на что способна передовая ИИ-инфраструктура, и тем, к чему имеет доступ ваша организация, будет расширяться, прежде чем сузиться. Гиперскейлеры строят рвы, измеряемые в экзафлопсах.
Возможность: по мере строительства передовой инфраструктуры, возможности, которые она производит, в конечном счёте становятся доступны через API по снижающимся ценам. Вычисления класса Vera Rubin, которые сегодня могут развернуть только Google и Microsoft, будут доступны через стандартные API-вызовы в течение двух-трёх лет.
Что означает: выигрывают не организации, пытающиеся соревноваться с гиперскейлерами по железу. Выигрывают те, кто строит фундамент данных, фреймворки управления и командные компетенции, которые позволят эксплуатировать эти API-доступные возможности, когда они появятся.
Я провёл 48 часов после keynote, делая три вещи.
Первое: я инициировал обзор нашего текущего фреймворка управления агентами. У нас есть политики того, как модели получают доступ к данным. У нас нет политик того, как агенты получают доступ к данным в масштабе, порождают суб-агентов или делают вызовы инструментов вне циклов человеческой проверки. Этот разрыв должен быть закрыт до того, как мы отгрузим первый продакшн агентный пайплайн — или у нас будет очень неприятный инцидент.
Второе: я привлёк руководителя платформенной инфраструктуры к разговорам о нашей вычислительной дорожной карте на 2026–2027 годы. Таймлайн Vera Rubin релевантен для любых GPU-инвестиций, которые мы рассматриваем on-prem. Экономика за токен релевантна для нашего моделирования облачных затрат. Мы не меняем дорожную карту на основании keynote, но мы стресс-тестируем наши допущения.
Третье: я запустил инициативу по документированию нашего слоя управления данными. Если тезис Дженсена верен — что данные это ground truth для всего, что делают агенты — тогда наше качество данных, lineage и контроль доступа теперь напрямую влияют на надёжность ИИ в продакшне. Это более сложный разговор с владельцами данных, но это правильный разговор.
Дженсен Хуанг провёл два часа в SAP Center, выстраивая один аргумент: ИИ теперь — инфраструктура промышленного масштаба, токены — это продукт, и каждый корпоративный слой должен быть перепроектирован вокруг этого факта.
Он прав. Я наблюдаю этот сдвиг в собственной организации уже 18 месяцев. Инструментарий зреет быстрее, чем организационная готовность. Инфраструктура масштабируется быстрее, чем управление.
Keynote GTC подтвердил то, что я говорю своему руководству с четвёртого квартала 2025 года: вопрос больше не в том, будет ли ваша организация внедрять агентный ИИ. Вопрос в том, готова ли ваша инфраструктура данных быть той ground truth, на которую эти агенты будут опираться.
Большинство организаций, с которыми я общаюсь: их данные не готовы. Их фреймворки управления не готовы. Их команды не думают об агентном ИИ в масштабе инфраструктуры.
NVIDIA только что сказала нам, что железо приходит в любом случае.
Готовы ли ваши данные стать фундаментом, на котором оно будет работать?
Вот вопрос, с которым я ушёл с GTC 2026. И я подозреваю, что именно этот вопрос определит, какие команды по данным построят что-то устойчивое в 2026 году — а какие проведут год, разгребая последствия того, как агенты уверенно обработали плохие данные в масштабе.
Как выглядит ваш фреймворк управления для агентного ИИ прямо сейчас? Вы опережаете строительство инфраструктуры или догоняете? Буду рад услышать, как другие руководители по данным подходят к этому вопросу.
Автор: cognitronn
Источник [3]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27999
URLs in this post:
[1] По ссылке вы можете получить 300 000 бесплатных токенов: https://bothub.chat/?invitedBy=iTNi-351UcHgc1BxGFWim
[2] поведением: http://www.braintools.ru/article/9372
[3] Источник: https://habr.com/ru/companies/bothub/articles/1016694/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1016694
Нажмите здесь для печати.