gpu.
Как получать эффект от ИИ, когда нет железа
Вы уверены, что для внедрения корпоративного ИИ в закрытом контуре нужны суперкомпьютеры? Мы решили проверить и добиться вменяемого качества от крошечной модели в максимально жестких условиях:CPU вместо GPU;закрытый контур.Кейс – научить крошечную модель LLM отвечать на вопросы по программе газификации РФ.В статье: пошаговый разбор, код LLLaMBA для автоматизации бенчмарка и готовые конфиги. Повторите эксперимент на своих данных!
Возвращение легенды: почему Fortran снова в топе и где его использовать сегодня
Я взглянул на апрельский рейтинг TIOBE за 2026 год и протёр глаза. Python, C, C++, Java, C# — скучно. Но вот на 10-й строчке восседает Delphi. А Fortran, язык, на котором писали ещё при царе Горохе и который, по мнению всей «модной» тусовки, давно должен лежать на свалке истории, стабильно держится в топ-15. В марте 2025 года он вообще ворвался в двадцатку вместе с такими «мамонтами», как Ada и COBOL.
Compute crunch пришёл: как считать экономику LLM в 2026
Build, Buy или Hybrid - рассуждаем о подходах к TCO. Статья - приглашение к диалогу и обсуждению, не экспертный нарратив."Я говорил" или что случилось с тарифами на LLM APIДва крупнейших API-провайдера одновременно сменили риторику. Anthropic ввёл usage-based billing для агентных фреймворков — плата за токены вместо фиксированных подписок. Часть сторонних обёрток потеряла возможность работать через flat-rate тарифы. OpenAI параллельно ввёл гибкое корпоративное ценообразование для Enterprise, Business и EDU-планов
GoCloud 2026: ИИ-агенты, четыре трека и как я стал ведущим конференции
Всем привет! Это Рома Путилов — вообще-то я в прошлом инженер, а сейчас руковожу направлением продвижения решений в Cloud.ru. Но 9 апреля что-то пошло не так, и вот я уже стою на сцене кинотеатра «Каро 11 Октябрь» под прицелами камер, перед залом на 1 700+ человек, и открываю нашу главную ИТ-конференцию про ИИ и облака.Как я дошел до жизни такой, что мы анонсировали на конфе, о чем говорили эксперты и что по циферкам? Сейчас все расскажу и покажу. Если пропустили или просто хотите узнать побольше об организаторской изнанке — читать обязательно.
DRAматургия GPU в Kubernetes: зачем нужен DRA, если Device Plugin работает? Разбираем грабли AI-инфраструктуры
Device Plugin честно отработал свою эпоху: он научил Kubernetes видеть GPU и выдавать их подам. Но с AI‑бумом GPU превратились в общий ресурс для десятков команд. Тут уже не «лишь бы запустилось», а нужны жёсткая изоляция, топология и утилизация. Старая модель упёрлась в потолок. Чтобы обойти её ограничения, команды вынуждены городить поверх «второй Kubernetes». А это дорого, часто ломается и плохо масштабируется.
Локальный ИИ: майнинг плата + 3 RTX 3090
В прошлый раз мы рассматривали локальный инференс на бюджетных ноутбуках, а потом я попытался запустить gpt-oss-120b на трех видеокартах. Протестировав модель в рабочих задачах, я понял что она может стать заменой облачным провайдерам. Однако, уже тогда стало понятно что десктопные материнские платы и корпуса не могут вместить в себя 3 RTX 3090. Поэтому я присмотрелся к майнерским решениям, где на материнских платах имеется большое количество PCI-слотов

