gpu.
Куда и почему уходят бабки на нейросети
Малоизвестный среди обычных людей факт: у нейросетей нет никаких "разговоров". Ты смотришь в веб-интерфейсе на "диалог" - но это обман, красивый фокус.Каждый раз, когда ты пишешь новое сообщение, все старые сообщения обрабатываются заново. У нейросетей по-настоящему многоразовых задач не существует. Если результат немного поменялся — тебе просто не покажут в веб-интерфейсе изменившиеся сообщения.
Обучение ИИ-моделей на обычном ЦП
Ещё раз о ЦП для машинного обучения в эпоху дефицита мощностей GPU
Железный голод: почему ИИ съедает GPU и память
Потихоньку приближается 2026 год, который принесет много интересных событий в сфере ИИ (по крайней мере, так думаю я). Но и за 2025-й мы получили огромное количество отличных моделей в свое распоряжение. С одной стороны, здорово, что теперь можно легко создать текст, программу, изображение, видео и звук. С другой же стороны, такой стремительный прогресс в области искусственного интеллекта существенно повлиял и на аппаратное обеспечение - особенно на видеокарты и память.
От первых видеокарт к 5 трлн $ в 2025 году: как NVIDIA стала самой дорогой компанией мира
29 октября 2025 года NVIDIA преодолела планку капитализации в 5 трлн $ и стала первой компанией в истории с такой рыночной стоимостью. Всего четыре месяца назад, в июле, компания перешагнула отметку в 4 трлн $ — рост на 1 трлн $ менее чем за полгода. Сегодня компания контролирует 80–90% рынка ИИ-ускорителей, а ее доля в росте индекса S&P 500 в 2025 году составила почти пятую часть. Разбираемся, как технологический прорыв превратил узкоспециализированного производителя в мирового гиганта за несколько лет.От геймерских видеокарт к научным вычислениям

