Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia. blackwell.. blackwell. google.. blackwell. google. gpu.. blackwell. google. gpu. ironwood.. blackwell. google. gpu. ironwood. nvidia.. blackwell. google. gpu. ironwood. nvidia. TPU.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия. Видеокарты.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия. Видеокарты. ИИ.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия. Видеокарты. ИИ. искусственный интеллект.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия. Видеокарты. ИИ. искусственный интеллект. Компьютерное железо.. blackwell. google. gpu. ironwood. nvidia. TPU. Блог компании Технократия. Видеокарты. ИИ. искусственный интеллект. Компьютерное железо. Облачные вычисления.
Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia - 1

На протяжении более десяти лет графические процессоры Nvidia лежали в основе практически всех значимых прорывов в современной сфере искусственного интеллекта. Но теперь эта позиция впервые оказалась под серьезным давлением.

Фронтирные модели, такие как Gemini 3 от Google и Claude 4.5 Opus от Anthropic, были обучены не на оборудовании Nvidia, а на новейших Tensor Processing Units компании Google — TPUv7 на базе архитектуры Ironwood. Это показывает: жизнеспособная альтернатива GPU-центричному стеку ИИ уже существует — и она способна заметно изменить экономику и архитектуру обучения моделей предельного масштаба.

Дисклеймер: это вольная пересказ колонки Дэвида Чена. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про AI, а также делимся полезными мастридами и актуальными событиями.

CUDA (Compute Unified Device Architecture) — программная платформа Nvidia, обеспечивающая доступ к массивному параллелизму GPU, — вместе с инструментами вокруг нее создала то, что многие называют «крепостью CUDA». Стоит один раз построить конвейеры на CUDA, и переход на другую платформу становится крайне дорогим из-за зависимости от программного стека Nvidia.

Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia - 2

TPU же изначально создавались как специализированные чипы для задач машинного обучения. С каждым новым поколением Google продвигалась дальше в направлении ускорения крупномасштабных ИИ-вычислений, но теперь, став основой для двух самых мощных моделей в истории, TPUv7 демонстрируют явный стратегический шаг: попытку изменить баланс сил на рынке, доминируемом Nvidia.

И GPU, и TPU ускоряют обучение моделей, однако они выражают разные философии дизайна. GPU — универсальные параллельные процессоры, тогда как TPU — специализированные системы, оптимизированные почти исключительно под крупные матричные операции. В TPUv7 Google продвинула эту идею дальше, встроив высокоскоростные межсоединения прямо в кристалл, благодаря чему массивы TPU масштабируются как единый суперкомпьютер — без тех затрат и задержек, которые характерны для кластеров на GPU.

«TPU создаются как полноценная система, а не просто как чип», — сказал в интервью VentureBeat Вал Берковичи, директор по ИИ в компании WEKA.

Коммерческий разворот Google: от внутреннего использования — к индустриальному стандарту

Исторически Google предоставляла доступ к TPU исключительно в аренду через Google Cloud Platform. Но в последние месяцы компания начала продавать оборудование напрямую, фактически разделив чип и облачную услугу. Теперь клиенты могут выбирать: использовать вычисления как операционные расходы, арендуя мощности в облаке, или как капитальные — приобретая оборудование. Это снимает серьезный барьер для крупных ИИ-лабораторий, которые предпочитают владеть инфраструктурой и хотят избежать «арендной надбавки» облаков.

TPU Ironwoo
TPU Ironwoo

Ключевым шагом новой стратегии стал крупный контракт с Anthropic: создатель Claude 4.5 Opus получит доступ до 1 миллиона TPUv7 — что эквивалентно более чем одному гигаватту вычислений. Через Broadcom, давнего партнера Google, Anthropic напрямую покупает около 400 тысяч чипов. Остальные 600 тысяч — арендует у Google Cloud. Этот контракт приносит Google миллиарды долларов и одновременно привязывает одного из ключевых конкурентов OpenAI к экосистеме Google.

Как рушится «крепость CUDA»

Годами Nvidia уверенно лидировала в инфраструктуре для ИИ. Помимо мощного железа, платформа CUDA включает богатую библиотеку оптимизированных ядер и инструментов. Огромное количество разработчиков, знакомых с этим стеком, и колоссальная установленная база сделали CUDA фактическим стандартом, отступление от которого выглядело нецелесообразным и слишком затратным.

Одним из факторов, сдерживающих распространение TPU, была экосистемная инерция. TPU долгие годы лучше всего работали с JAX — собственной библиотекой Google для численных вычислений и ML-исследований. Однако основная масса индустрии использует PyTorch, тесно связанный с CUDA.

Google взялась устранить этот барьер. TPUv7 получили полноценную нативную поддержку PyTorch: eager execution, распределённые API, torch.compile, а также поддержку пользовательских TPU-ядр под PyTorch toolchain. Цель — чтобы запуск PyTorch на TPU был таким же простым, как на GPU Nvidia.

Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia - 4

Google также активно вносит вклад в vLLM и SGLang — популярные open-source фреймворки для инференса. Оптимизируя их под TPU, компания упрощает миграцию: разработчикам не нужно переписывать весь код.

Плюсы и минусы TPU по сравнению с GPU

Для компаний, сравнивающих TPU и GPU для крупномасштабных ML-задач, ключевыми метриками являются стоимость, производительность и масштабируемость. SemiAnalysis недавно опубликовали подробный анализ, сравнивающий эти параметры.

Благодаря более узкой специализации и высокой энергоэффективности, TPUv7 обеспечивают значительно более высокий показатель «пропускная способность за доллар» как для обучения, так и для инференса при больших объемах. Это снижает расходы на питание, охлаждение и дата-центры. По оценке SemiAnalysis, совокупная стоимость владения (TCO) сервером на Ironwood примерно на 44% ниже, чем у аналогичного GB200 Blackwell от Nvidia. Даже с учетом прибыли Google и Broadcom, внешние клиенты, такие как Anthropic, получают выигрыш в районе 30%. «Когда важна стоимость, TPU — логичный выбор для ИИ-проектов гигантского масштаба. TPU позволяют гиперскейлерам и лабораториям снизить TCO на 30-50%, что означает экономию в миллиарды», — отмечает Берковичи.

Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia - 5

Это преимущество уже влияет на рынок. Сам факт появления альтернативы позволил OpenAI добиться примерно 30%-й скидки на закупки GPU Nvidia. Помимо этого, OpenAI в этом году добавила TPU Google через Google Cloud, чтобы удовлетворить растущие вычислительные потребности. Meta также, по сообщениям, ведет переговоры о закупке TPU для своих дата-центров.

Однако Ironwood — не «идеальный чип для всех». TPU блестяще справляются с глубоким обучением, но гораздо менее гибки, чем GPU, которые подходят для куда более широкого спектра задач, включая не-ИИ-вычисления. Если завтра появится новый метод машинного обучения, GPU сможет выполнить его сразу. Поэтому GPU — лучший выбор для компаний с разнородными вычислительными нагрузками.

Переход с GPU на TPU также может оказаться затратным и сложным: многие команды зависят от CUDA-конвейеров, кастомных GPU-ядер или фреймворков, которые пока не оптимизированы под TPU.

Берковичи рекомендует компаниям выбирать GPU «когда нужно двигаться быстро, и скорость вывода продукта на рынок критична. GPU используют стандартную инфраструктуру, имеют крупнейшую экосистему разработчиков, легко справляются с динамичными и сложными задачами, и могут быть развернуты в существующих дата-центрах без перестройки питания и сетевой архитектуры».

Кроме того, специалистов по TPU гораздо меньше. «Чтобы раскрыть потенциал TPU, компании нужна глубокая инженерная экспертиза — способность нанимать и удерживать редких инженеров, которые пишут собственные ядра и оптимизируют компиляторы», — добавляет он.

На практике преимущества Ironwood проявляются в первую очередь у компаний с крупными Tensor-насыщенными нагрузками. Тем, кому важна гибкость железа, гибридные облачные стратегии или энтерпрайз-задачи HPC-класса, GPU подойдут лучше. Во многих случаях наиболее разумным оказывается гибрид: сочетание TPU и GPU.

Будущее архитектуры ИИ

Борьба за доминирование на рынке ИИ-ускорителей стремительно обостряется, но говорить о победителе пока рано — возможно, его и не будет вовсе. При текущих темпах инноваций со стороны Nvidia, Google и растущей конкуренции со стороны Amazon, высокопроизводительные системы будущего, вероятно, будут гибридными, объединяя TPU и GPU.

«Мы видим ускоряющийся спрос на наши собственные TPU и на GPU Nvidia», — сообщил представитель Google VentureBeat. — «В результате мы значительно расширяем предложение GPU Nvidia, чтобы удовлетворить растущие потребности клиентов. На практике большинство наших клиентов Google Cloud используют и GPU, и TPU. Благодаря широкому выбору новейших GPU Nvidia и семи поколениям кастомных TPU мы можем предложить гибкость, позволяющую оптимизировать системы под конкретные задачи».

Автор: madballer34

Источник

Rambler's Top100