инфраструктура. - страница 4

Китай планирует использовать чипы Nvidia для расширения инфраструктуры ИИ в Синьцзяне

Похоже, что усилия Китая по расширению инфраструктуры искусственного интеллекта в Синьцзяне основаны на надежде получить контрабандное оборудование Nvidia.

продолжить чтение

Apple планирует облачный сервис на собственных чипах

Apple рассматривает возможность запуска нового облачного сервиса на чипах собственного производства, ориентированного на разработчиков, согласно данным издания The Information.

продолжить чтение

Учёные с помощью ИИ составляют «карты настроения» городов

Исследователи из Университета Миссури обучили

продолжить чтение

США сняли ограничения на экспорт софта для полупроводников в Китай

Министерство торговли США приняло решение отказаться от ограничений на экспорт специализированного ПО для проектирования интегральных микросхем в Китай. Компания Siemens AG уже подтвердила получение официального уведомления о возможности восстановления полного доступа китайских клиентов к своим продуктам для проектирования полупроводниковых компонентов.

продолжить чтение

OpenAI начинает использовать тензорные процессоры Google для своих ИИ-продуктов

По данным The Information, компания OpenAI начала использовать тензорные процессоры Google (TPU) для запуска ChatGPT и других продуктов на основе ИИ. Это первый случай, когда OpenAI в больших масштабах использует чипы, отличные от графических процессоров Nvidia.

продолжить чтение

К2 НейроТех ускорил запуск ИИ-сервисов для ФГАУ «Цифровые индустриальные технологии»

На базе имеющейся инфраструктуры команда К2 НейроТех развернула высокопроизводительный вычислительный кластер с единой средой управления для ФГАУ «Цифровые индустриальные технологии» (ЦИТ).  Это позволило запускать ИИ-сервисы за считанные минуты и повысило эффективность использования инфраструктуры. Успешная реализация проекта была отмечена в профессиональном сообществе – кейс вошел в шорт-лист премии CIPR Digital-2025.Задача одного из подразделений ЦИТ – обеспечить доступ к вычислительным мощностям для внедрения технологий искусственного интеллекта и машинного обучения в работу предприятий промышленности.

продолжить чтение

Китай начал реализацию проекта по созданию космического суперкомпьютера

14 мая с космодрома Цзюцюань успешно успешно стартовала ракета‑носитель Long March 2D, выведя на орбиту 12 спутников будущей масштабной (2800 космических аппаратов) сети Three‑Body Computing Constellation («Вычислительное созвездие трёх тел»). Основная цель проекта: создание орбитального суперкомпьютера для обработки данных в реальном времени и снижение задержек при передаче информации на Землю (сейчас до 90% данных теряется из‑за ограниченной пропускной способности).

продолжить чтение

ЦОД 2050: три реалистичные концепции развития дата-центров

Что будет с дата-центрами, когда физические пределы достигнуты? Когда PUE упадёт ниже единицы, а каждая новая стойка будет выходить в минус? Ответ уже начинает проявляться. Новый виток эволюции ЦОДов не в росте плотности или увеличении каналов. Он — в изменении самой парадигмы: дата-центр не как здание, а как среда, экосистема, организм. В статье представил три сценария будущего дата-центров. Спойлер: ни одна из описанных ниже концепций не является фантастикой. Все они — логическое продолжение уже происходящих процессов.

продолжить чтение

Gemini 2.5 Pro возглавил все ИИ-бенчмарки: Google возвращает корону технологического лидера

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод — Google Is Winning on Every AI Front

продолжить чтение

Как готовить Triton: рецепты вашей собственной Inference-платформы

Привет, Хабр! Меня зовут Антон, я DevOps-инженер в команде Data/ML-продуктов Selectel. Если вам нужно запустить небольшой инференс одной ML-модели, можно взять команду бэкендеров, дать им эту модель, они обернут ее в эндпоинт — и готово. Достаточно короткого скрипта из нескольких строк на Python. Но что если нужно запускать несколько моделей, оптимизировать выполнение, работать с ансамблем моделей, задействовать CPU и GPU одновременно и т. д.? Все эти проблемы решает NVIDIA Triton Inference Server. Правда, он добавляет одну новую: разобраться с ним и его документацией — тот еще квест. В статье посмотрим, насколько сложной задачей может оказаться создание собственного инференса и какие аспекты нужно учитывать. Научимся запускать различные форматы моделей, посмотрим на основные фичи Inference-платформы Selectel, запустим несколько популярных LLM и моделей, а также познакомимся со способами оптимизации конфигурации и проектирования интерфейса для модели.

продолжить чтение

Rambler's Top100