amd.

amd.

Lemonade — локальный LLM-сервер при поддержке AMD. Зачем он нужен, если есть Ollama?

Ryzen AI 9 HX 370 - это чип с NPU на 50 TOPS и Ollama его не видит - из-за своей архитектуры. Собственно, сама Ollama работает поверх llama.cpp, llama.cpp поддерживает GPU через CUDA, Metal, Vulkan и ROCm. А вот AMD GPU Ollama запускает - через ROCm и Vulkan. Но AMD NPU на базе архитектуры XDNA туда, к сожалению, не входит. Ryzen AI 300, Ryzen 8040, Ryzen 7040 - у всех этих чипов есть нейронный процессор, который при запуске Ollama простаивает.И вот Lemonade Server появился именно для этого сегмента.Что за LemonadeДля начала - это не корпоративный продукт AMD. Они финансируют разработку и предоставляют инженеров, но это не официальный продукт с корпоративным релизным циклом.

продолжить чтение

52 ядра и ответ AMD: Intel готовит Nova Lake с гигантским кешем для игр

продолжить чтение

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потребительской видеокарте AMD за $500 — без ROCm, без CUDA, без MLX, одним бинарником на Zig.Это пост про ZINC — inference engine, который мы строим с нуля под железо, которое люди реально покупают. Не как proof of concept, а как рабочий инструмент с OpenAI-совместимым API, потоковой генерацией и встроенным чатом.

продолжить чтение

Запускаем LLM на AMD RX580: разбор проблем ROCm, Ollama и реальный GPU inference

TL;DRМы пытались запустить LLM inference на старой AMD RX580 (8 VRAM) через ROCm в Kubernetes. GPU корректно определялся, VRAM использовалась, но inference падал с ошибками вида:hipMemGetInfo(free, total) CUDA error: invalid argumentПосле серии экспериментов с ROCm userspace, Docker‑образами и Kubernetes deployment выяснилось, что проблема лежит на границе:kernel → ROCm runtime → ggml backendФинальное решение включало:переход на kernel 6.8стабилизацию ROCm runtimeиспользование llama.cpp + ROCmgrammar‑constrained decoding для strict sanity promptsВ итоге мы получили стабильный GPU inference:~42 токен/секgpu_busy_percent → до 100%

продолжить чтение

Ноутбуки подорожают на 40%? Как бум искусственного интеллекта меняет рынок ПК

Аналитики считают

продолжить чтение

Процессоры снова в деле: Intel и AMD ловят волну спроса на CPU из-за агентного ИИ

Гендиректор AMD Лиза Су с серверным чипом. Источник.

продолжить чтение

США привяжут экспорт ИИ-ускорителей Nvidia и AMD к инвестициям в свою экономику

США рассматривают идею одобрять экспорт крупных партий ИИ-чипов Nvidia и AMD взамен на иностранные инвестиции, пишет FT. Это может коснуться стран, компании в которых закупают такие чипы сотнями тысяч. Подобная инициатива открывает возможности для увязывания доступа к технологиям ИИ с торговой политикой или «другими прихотями» Трампа, опасаются аналитики.

продолжить чтение

AMD представила серию Ryzen AI 400 для настольных конфигураций

Компания AMD представила на выставке Mobile World Congress в Барселоне продукты серии Ryzen AI PRO 400, включая настольные процессоры Ryzen AI PRO 400.

продолжить чтение

ML-дайджест: автономные агенты, новый стандарт безопасности и инференс-гонка

Пока индустрия спорит о «пузыре», обсуждая, почему оценка очередного стартапа с одной оберткой над GPT-5 на высоте, реальный сектор строит

продолжить чтение

World Labs привлёк миллиард инвестиций

Стартап World Labs, основанный известным специалистом по искусственному интеллекту Фэй‑Фэй Ли, привлек финансирование в размере 1 миллиарда долларов, чтобы ускорить развитие новых технологий в области пространственного интеллекта — подхода, направленного на понимание и взаимодействие ИИ с трёхмерным миром.

продолжить чтение

123456...7