gpu.

gpu.

Как TPU от Google меняют экономику масштабного ИИ и ставят под угрозу монополию NVidia

продолжить чтение

Один чип вместо тысяч серверов, или глобальный конкурент Nvidia

Пока все обсуждали, насколько мощнее стали новые GPU, возникла другая проблема: большие модели не помещаются туда, где их пытаются запускать. Дата-центры дорожают, пропускные сети упираются в физические пределы, а зависимость от облака становится стратегическим риском. О компании, которая предлагает альтернативную инфраструктуру для ИИ.

продолжить чтение

GaMAC: Открытая библиотека для автоматической кластеризации мультимодальных данных под GPU

ВведениеКластеризация представляет собой одну из ключевых и востребованных задач в области машинного обучения. В общем смысле, её можно описать как процесс разделения группы объектов на подгруппы таким образом, чтобы схожие объекты оказались в одной и той же подгруппе. Эта задача актуальна в различных областях, таких как биология, психология, маркетинг, социология, лингвистика и компьютерная безопасность. В прошлом посте

продолжить чтение

Как свергнуть короля: формула для линейной альтернативы Трансформеру без побочных эффектов

продолжить чтение

CEO Nvidia успокоил инвесторов на фоне скепсиса вокруг ИИ-пузыря

Nvidia отчиталась

продолжить чтение

Инфраструктура как предел роста: как AI-пузырь переписал роль ЦОДов и облачных операторов

продолжить чтение

Выбор GPU-карты для Inference: честное сравнение H100, A100 и V100

Привет! Меня зовут Андрей Пелешок, я инженер L3 команды PaaS в Cloud.ru. Я отвечаю за работу платформенных сервисов и за поддержку инфраструктуры.

продолжить чтение

GPU Intel Arc на Raspberry Pi и non-x86 платформах — запуск, настройка и анализ производительности

Intel Arc Pi GPU B580 AI Llama.cpp LLM.

продолжить чтение

«Золотая рыбка, хочу LLM без GPU»: как собрать Inference-сервер на CPU

продолжить чтение

AI-торрент: децентрализованная сеть, где твои GPU станут валютой для супер-AI

ИИ и автоматизация — это цунами, которое обрушится завтра, смывая отрасли и экономики. Его можно либо интегрировать в свои ресурсы, либо погрузиться в зависимость от облачных гигантов.Я столкнулся с этой болью: ИИ-inference стоит дорого. А почему мои неиспользуемые GPU от майнинга не могут стать платой за него?Концепция: P2P-инфраструктура на базе MoE"ИИ-торрент" — это децентрализованная P2P-сеть для inference ИИ-моделей. В её основе три ключевых принципа:BitTorrent-экономика.

продолжить чтение

123456...8
Rambler's Top100