gpu.

gpu.

Selectel представил собственный сервер, оптимизированный для AI-задач

продолжить чтение

Как получать эффект от ИИ, когда нет железа

Вы уверены, что для внедрения корпоративного ИИ в закрытом контуре нужны суперкомпьютеры? Мы решили проверить и добиться вменяемого качества от крошечной модели в максимально жестких условиях:CPU вместо GPU;закрытый контур.Кейс – научить крошечную модель LLM отвечать на вопросы по программе газификации РФ.В статье: пошаговый разбор, код LLLaMBA для автоматизации бенчмарка и готовые конфиги. Повторите эксперимент на своих данных!

продолжить чтение

Возвращение легенды: почему Fortran снова в топе и где его использовать сегодня

Я взглянул на апрельский рейтинг TIOBE за 2026 год и протёр глаза. Python, C, C++, Java, C# — скучно. Но вот на 10-й строчке восседает Delphi. А Fortran, язык, на котором писали ещё при царе Горохе и который, по мнению всей «модной» тусовки, давно должен лежать на свалке истории, стабильно держится в топ-15. В марте 2025 года он вообще ворвался в двадцатку вместе с такими «мамонтами», как Ada и COBOL.

продолжить чтение

Compute crunch пришёл: как считать экономику LLM в 2026

Build, Buy или Hybrid - рассуждаем о подходах к TCO. Статья - приглашение к диалогу и обсуждению, не экспертный нарратив."Я говорил" или что случилось с тарифами на LLM APIДва крупнейших API-провайдера одновременно сменили риторику. Anthropic ввёл usage-based billing для агентных фреймворков — плата за токены вместо фиксированных подписок. Часть сторонних обёрток потеряла возможность работать через flat-rate тарифы. OpenAI параллельно ввёл гибкое корпоративное ценообразование для Enterprise, Business и EDU-планов

продолжить чтение

Дружим стратегически: как прошел Демо день Рег.облака

продолжить чтение

GoCloud 2026: ИИ-агенты, четыре трека и как я стал ведущим конференции

Всем привет! Это Рома Путилов — вообще-то я в прошлом инженер, а сейчас руковожу направлением продвижения решений в Cloud.ru. Но 9 апреля что-то пошло не так, и вот я уже стою на сцене кинотеатра «Каро 11 Октябрь» под прицелами камер, перед залом на 1 700+ человек, и открываю нашу главную ИТ-конференцию про ИИ и облака.Как я дошел до жизни такой, что мы анонсировали на конфе, о чем говорили эксперты и что по циферкам? Сейчас все расскажу и покажу. Если пропустили или просто хотите узнать побольше об организаторской изнанке — читать обязательно.

продолжить чтение

DRAматургия GPU в Kubernetes: зачем нужен DRA, если Device Plugin работает? Разбираем грабли AI-инфраструктуры

Device Plugin честно отработал свою эпоху: он научил Kubernetes видеть GPU и выдавать их подам. Но с AI‑бумом GPU превратились в общий ресурс для десятков команд. Тут уже не «лишь бы запустилось», а нужны жёсткая изоляция, топология и утилизация. Старая модель упёрлась в потолок. Чтобы обойти её ограничения, команды вынуждены городить поверх «второй Kubernetes». А это дорого, часто ломается и плохо масштабируется.

продолжить чтение

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потребительской видеокарте AMD за $500 — без ROCm, без CUDA, без MLX, одним бинарником на Zig.Это пост про ZINC — inference engine, который мы строим с нуля под железо, которое люди реально покупают. Не как proof of concept, а как рабочий инструмент с OpenAI-совместимым API, потоковой генерацией и встроенным чатом.

продолжить чтение

Локальный ИИ: майнинг плата + 3 RTX 3090

В прошлый раз мы рассматривали локальный инференс на бюджетных ноутбуках, а потом я попытался запустить gpt-oss-120b на трех видеокартах. Протестировав модель в рабочих задачах, я понял что она может стать заменой облачным провайдерам. Однако, уже тогда стало понятно что десктопные материнские платы и корпуса не могут вместить в себя 3 RTX 3090. Поэтому я присмотрелся к майнерским решениям, где на материнских платах имеется большое количество PCI-слотов

продолжить чтение

Какие GPU вам подойдут? Фото из ЦОДа и обзор H200 и L40S

продолжить чтение

123456...10...13