gpu.
Архитектура LPU и будущее AI без задержек
Команда AI for Devs подготовила перевод статьи о том, как Groq пытается устранить главное «бутылочное горлышко» современного ИИ — задержку. Их специализированный процессор LPU обещает скорость в реальном времени и открывает путь к новым приложениям: от финансовых систем до Coding AI-ботов. Но за пределами маркетинга остаются вопросы: что с большими контекстами, какова конкуренция с Cerebras и GPU, и выдержит ли бизнес-модель такие вызовы?Погоня за скоростью: почему задержка в ИИ становится новым "бутылочным горлышком"?
Nvidia показала GPU для моделей со сверхдлинным контекстом
Nvidia показала новый графический процессор Rubin CPX, созданный специально для работы с языковыми моделями и мультимодальными
Теперь Grok 2.5 можно запускать локально
Инженеры Unsloth представили оптимизированную версию модели Grok 2.5, которая теперь может работать локально на Mac с 128 ГБ оперативной памяти. В тестах достигли скорости около пяти токенов в секунду при размере модели в 270 миллиардов параметров.
Какое в Китае есть ИИ-железо. Насколько эти чипы мощные в сравнении с моделями Nvidia – AMD
Статья - частичный перевод поста на Rest Of World: China’s chip startups are racing to replace Nvidia и собственного дополнения (характеристики и сравнения с ближайшими аналогами от Nvidia). Для сбора информации о железе использовался в том числе Perplexity Deep Research. После введения экспортного контроля США за чипами ИИ, китайские инвесторы присматриваются к локальным стартапам-производителям ИИ-чипов. А те на инвестициях переманивают экс-сотрудников Nvidia.
Свет вместо электричества: Microsoft работает над новым типом вычислений
Microsoft вместе с Barclays представила прототип аналогового оптического компьютера
Обзор серверов для AI: на примере платформ Dell и YADRO до 8 GPU
Для профессиональной работы с ИИ нужны специализированные решения. Например, для глубокого обучения современных моделей требуется конфигурация с видеопамятью от 500 ГБ, и возможно установить больше GPU в серверную платформу. В этой статье расскажем, какими характеристиками должен обладать AI-сервер, и покажем конкретные решения от Dell и российского бренда Yadro.Ускорители для AI: на чём работают современные нейросетиПри выборе GPU для AI-сервера важно обращать внимание на несколько ключевых показателей:
MAI-Voice-1 и MAI-1-preview: Microsoft показала новые ИИ-разработки
Источник фото: Microsoft
Как приручить LLM: подбор инфраструктуры для инференса. Часть 1
Привет, Хабр! Меня зовут Антон, и сейчас я активно занимаюсь вопросами инфраструктуры для ML и AI
RTX Pro 2000, 4000 SFF и 6000 Blackwell: новое поколение видеокарт NVIDIA
Видеокарты NVIDIA на архитектуре Blackwell в очередной раз трансформируют рынок GPU. Три новые модели — RTX Pro 2000 Blackwell, RTX Pro 4000 SFF Blackwell Edition и RTX Pro 6000 Blackwell — делают технологии AI и высокопроизводительных вычислений более доступными для широкого круга компаний.В этой статье мы рассмотрим характеристики, возможности и потенциальные сценарии использования новых серверных GPU NVIDIA Blackwell начального и среднего уровня, которые выйдут на рынок до конца 2025 года.NVIDIA RTX Pro 2000 Blackwell: в 2,5 раза выше производительность ИИ по сравнению с предыдущим поколением NVIDIA анонсировала
NVIDIA RTX 6000 Blackwell Server Edition: тесты, сравнение с Workstation и RTX 5090, особенности охлаждения
С выпуском нового поколения чипов Blackwell для рынка потребительских видеокарт ожидаемо было увидеть версии GPU и для рабочих станций, которые должны были прийти на замену A5000/A6000-серии и быть дешевле, чем GPU уровня A100/H100.Это и произошло, но при этом Nvidia всех окончательно запутала, выпустив за полгода аж три версии видеокарты RTX PRO 6000 Blackwell. Мы в HOSTKEY к гонке производительности подключились с выходом последней версии, а именно RTX PRO 6000 Blackwell Server Edition, протестировали ее, и нам есть что вам рассказать по итогу (и показать).Попробуйте сервер с NVIDIA RTX 6000 PRO 96 ГБ - бесплатно!

