Почему электроника подорожает, а Россия получит свои процессоры
В России запускают масштабный проект по развитию микроэлектроники с бюджетом 1,25 трлн ₽. Планируют ускорить создание современного производства собственных процессоров и чипов. С 1 сентября 2026 года вводится технологический сбор. Давайте обсудим, получится ли на эти деньги создать конкурентоспособную микроэлектронику.Мегакорпорация на триллион: что создают, кто возглавит и откуда возьмут деньги
Один сокет на годы или новый каждые два: разбираем подходы AMD и Intel
Представьте двух людей, которые в 2024 году собрали новые ПК: один на Intel с сокетом LGA1851, другой на AMD AM5. К 2027 году владелец AMD сможет просто установить новый процессор на новой архитектуре Zen 6, и даже может и Zen7. Владельцу Intel придется менять не только процессор, но и материнскую плату: его LGA1851 к тому времени устареет дважды, сначала уступив место LGA1954 для Nova Lake в 2026 году, а затем и следующему сокету. Разница между этими сценариями начинается с одной, на первый взгляд скучной детали — сокета.
От первых видеокарт к 5 трлн $ в 2025 году: как NVIDIA стала самой дорогой компанией мира
29 октября 2025 года NVIDIA преодолела планку капитализации в 5 трлн $ и стала первой компанией в истории с такой рыночной стоимостью. Всего четыре месяца назад, в июле, компания перешагнула отметку в 4 трлн $ — рост на 1 трлн $ менее чем за полгода. Сегодня компания контролирует 80–90% рынка ИИ-ускорителей, а ее доля в росте индекса S&P 500 в 2025 году составила почти пятую часть. Разбираемся, как технологический прорыв превратил узкоспециализированного производителя в мирового гиганта за несколько лет.От геймерских видеокарт к научным вычислениям
Экономика дефицита: как OpenAI, Google и xAI перекроили рынок оперативной памяти
В ноябре 2025 года рынок памяти столкнулся с кризисом: цены на DDR5 взлетели в 2–3 раза всего за несколько недель, а производители чипов работают на пределе возможностей, как они заявляют. Причина — взрывной рост ИИ-индустрии, где такие гиганты, как OpenAI, Google и xAI, буквально «выгребают» с рынка всю доступную память для своих дата-центров.В этой статье мы разберем, как ИИ-бум перестроил всю экономику компьютерного железа, почему серверы оказались в зоне наибольшего риска и когда ждать стабилизации цен.Что происходит с ценами на потребительском рынке
Кому нужны игровые видеокарты NVIDIA с 48 ГБ VRAM и почему их до сих пор нет
Геймеры, играющие в 4К-игры, энтузиасты генеративного ИИ и все, кто работает с крупными LLM-моделями, всё чаще сталкиваются с серьезным ограничением — недостаточным объемом видеопамяти. Даже топовые потребительские видеокарты с 24 ГБ или 32Gb VRAM не всегда справляются с тяжелыми задачами. Например, для профессионального видеомонтажа 8K-материала в DaVinci Resolve с применением сложных эффектов и многослойной композиции 24 ГБ видеопамяти часто оказывается недостаточно.
GITEX Global 2025: Dell, Huawei, Cisco, Kaspersky и что еще мы увидели на стендах участников
С 13 по 17 октября 2025 года Дубай снова стал эпицентром мировых технологий. GITEX Global, крупнейшая в мире технологическая выставка, в этом году побила все рекорды: более 6800 компаний, 2000 стартапов и делегации из 180 стран. Юбилейный, 45-й выпуск был целиком посвящен искусственному интеллекту и его применению во всех сферах жизни — от бизнеса до повседневных задач.
24 000 чипов NVIDIA и 2600 Rhea1 в действии: как устроен самый мощный европейский суперкомпьютер JUPITER
Европа официально вступила в экзафлопсную эру суперкомпьютеров. В исследовательском центре Юлиха (Германия) начал работу JUPITER — первый европейский суперкомпьютер, который позиционируется как экзафлопсный.JUPITER объединяет в себе передовые технологии: 24 000 чипов NVIDIA GH200 Grace Hopper, новейшую систему жидкостного охлаждения и модульную архитектуру. Рассказываем, что внутри у крупнейшего суперкомпьютера Европы, сколько он стоит и для каких целей его будут использовать.Как американские GPU и французские CPU работают в одной системе
Что нового в NVIDIA Rubin CPX — платформе для AI, представленной на AI Infra Summit
9 сентября NVIDIA представила новый графический процессор Rubin CPX, разработанный специально для задач искусственного интеллекта с длинным контекстом. Этот монолитный чип оснащен 128 ГБ памяти GDDR7, способен обрабатывать миллионы токенов информации и оптимизирован для фазы предварительной обработки данных в задачах инференса. В деталях рассказываем, какую мощность выдает новинка и для какой работы подходит. На что способен NVIDIA Rubin CPX
25-летняя история стандарта SD, гонки форматов и путь к 128 ТБ
В 1999 году компании SanDisk, Toshiba и Panasonic представили миру формат Secure Digital (SD) — карту памяти размером с почтовую марку, способную хранить 8 МБ данных. За четверть века SD-карты прошли большой путь: их емкость выросла в сотни тысяч раз, скорость передачи данных увеличилась с 12,5 Мбит/с до почти 4 Гбит/с, а сами карты уменьшились до размеров ногтя.Сегодня SD-технологии используются в миллиардах устройств — от фотокамер и смартфонов до дронов и автомобильных систем. Давайте посмотрим, как развивалась эта технология хранения данных и что ждет ее в ближайшем будущем.Рождение стандарта и эволюция размеров от SD до microSD
Ядерные реакторы от Google и Microsoft: как накормить ЦОДы электричеством
К 2030 году дата-центры будут потреблять 945 тераватт-часов электроэнергии — столько же, сколько вся Япония. Причина — стремительное развитие искусственного интеллекта. Google и Microsoft ищут решение в ядерной энергетике: первая компания строит новый реактор, вторая восстанавливает аварийную АЭС. Разбираемся, почему ИИ требует так много энергии, сколько атомных станций нужно для работы одного дата-центра и где уже запускают ядерные реакторы для работы с ИИ.Сколько энергии потребляет искусственный интеллектПо

