gpu.
Pov-real: непопулярные мнения об индустрии genAI
Привет, Хабр! На связи Just AI, и сегодня мы собрали для вас непопулярные мнения экспертов индустрии на тему genAI. Зачем? Потому что новости о прорывных технологиях, многомиллиардных инвестициях и стартапах появляются почти каждый день – сложно не утонуть в этом потоке и понять, где реальная ценность, а где просто хайп. Критическое мышление – наше все!В нашем телеграм-канале мы устроили челлендж «pov/real»
Pov-real: развеиваем мифы об индустрии genAI и делимся непопулярными мнениями экспертов
Привет, Хабр! На связи Just AI, и сегодня мы собрали для вас непопулярные мнения экспертов индустрии на тему genAI. Зачем? Потому что новости о прорывных технологиях, многомиллиардных инвестициях и стартапах появляются почти каждый день – сложно не утонуть в этом потоке и понять, где реальная ценность, а где просто хайп. Критическое мышление – наше все!В нашем телеграм-канале мы устроили челлендж «pov/real»
Microsoft инвестирует 15,2 млрд долларов в ОАЭ
Компания Microsoft объявила, что за ближайшие четыре года вложит 15,2 млрд долларов в развитие облачной и ИИ-инфраструктуры в Объединённых Арабских Эмиратах (ОАЭ). Сделка включает поставки передовых GPU от Nvidia, а также развёртывание дата-центров и обучение местных специалистов.
Samsung и Nvidia объявили о создании новой «мегафабрики искусственного интеллекта» на базе более чем 50 000 чипов Nvidia
Samsung и Nvidia
Production AI сервер за ₽0: полный гайд по сборке ML-станции для Stable Diffusion на б-у комплектующих
Комплектующие для ИИ сервера Я это сделал. За один день.Часть 1: Аппаратная частьВыбор видеокарт: RTX 2060 vs RTX 1060
Starcloud-1 первый космический дата-центр с NVIDIA H100
В ноябре 2025 года компания Starcloud выведет на орбиту спутник Starcloud-1. Это будет первый в истории космический дата-центр, предназначенный для тренировки искусственного интеллекта в условиях микрогравитации и постоянного солнечного излучения.
Как я экономлю на инференсе LLM-модели в облаке и не теряю в качестве
Если вы читаете этот текст, скорее всего, вы уже пробовали запустить LLM самостоятельно и, вполне вероятно, столкнулись с одной из типичных проблем:«Заказал GPU, загрузил модель, а она не влезла, хотя по расчетам памяти должно было хватить».«Платим за A100, а реально используем лишь 30% ее мощности».Привет, на связи Павел, ML-инженер в Cloud.ru. Я прошел через эти проблемы сам, поэтому не понаслышке знаю, как это может раздражать.

