ChatGPT 5 вышел! Что нового, бенчмарки, как получить доступ из России
В четверг, 7 августа, в 20:00 по мск состоялось долгожданное событие в мире ИИ — OpenAI представила ChatGPT 5. В этой статье я собрал всю важную информацию из прошедшей демонстрации
Grok 4 — самая умная модель? Обзор новой нейросети от Илона Маска
В июле этого года Илон Маск и команда xAI выпустили Grok 4 — свою новую «самую умную модель в мире».
Что умеет RTX 4090 в 2025 году и как ее использовать для облачного рендеринга анимаций
RTX™ 4090 — не новинка, но одна из самых сбалансированных карт по цене и производительности. Под катом — не просто обзор железа. Показываем, как 4090 раскрывается в задачах 3D и рендеринга, включая специфичный, но показательный кейс по headless-визуализации с трассировкой лучей и сборкой видео через FFmpeg.
ChatGPT o3 Pro: новый флагман OpenAI или маркетинговый ход? Разбираемся
OpenAI снова удивляет: новая модель ChatGPT o3 Pro обещает революцию в аналитике, науке и разработке. Но так ли она хороша? Читайте разбор архитектуры, тестов и подводных камней «самого вдумчивого ИИ» 2025 года.
Claude Opus 4 за 75 $-млн токенов vs Sonnet 4 за 15 $: стоит ли переплачивать? Тесты внутри
Привет, «Хабр»! Май 2025-го выдался жарким на ИИ‑новости: Anthropic наконец запустила долгожданный Claude 4 — сразу в двух вариантах, Opus 4 и Sonnet 4
Тест-драйв Claude 4: Opus и Sonnet в бою за код и 3D
Привет, «Хабр»! Май 2025-го выдался жарким на ИИ‑новости: Anthropic наконец запустила долгожданный Claude 4 — сразу в двух вариантах, Opus 4 и Sonnet 4
Почём ИИ для народа: протестировали платформу YADRO G4208P с восемью H100 NVL и RTX 4090 на десятке ИИ-моделей
Привет, Хабр! Меня зовут Артём Маклаев, вместе с командой я занимаюсь оценкой производительности серверных платформ для задач искусственного интеллекта в YADRO. Сегодня поговорим о готовящемся к выпуску сервере YADRO G4208P G3, к раннему образцу которого мы получили полный доступ, чтобы оценить его эффективность работы с нейросетями.
Тестирование производительности видеокарт на примере больших языковых моделей с использованием Llama.cpp
В последнее время большие языковые модели (LLM) становятся все более популярными, но для их эффективного запуска требуется значительная вычислительная мощность. Один из способов запуска LLM локально - использование библиотеки Llama.cpp. В этой статье мы рассмотрим, как тестировать производительность видеокарт для LLM с использованием инструмента llama-bench, входящего в состав Llama.cpp.Дисклеймер: Почему Llama.cpp, а не Ollama?

