Машинное обучение. - страница 141

LARM: как мультимодальные LLM меняют рекомендации для live-стриминга

Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).

продолжить чтение

Исследование: GPT-5 показала значительный прогресс в области кибербезопасности

Аналитики компании XBOW выяснили, что модель GPT-5 от OpenAI показала значительный прогресс в области кибербезопасности. Итоги её испытаний оказались вдвое лучше, чем у предшественников.

продолжить чтение

ML Q & AI. Глава 7. Парадигмы обучения на нескольких GPU

← Предыдущая глава | Какие существуют подходы к обучению на нескольких GPU и в чем их сильные и слабые стороны?Подходы к обучению на нескольких GPU можно разделить на две группы: разделение данных для параллельной обработки несколькими GPU и разделение модели по нескольким GPU для преодоления ограничений памяти, когда размер модели превышает возможности одной видеокарты. Параллелизм данных попадает в первую категорию, в то время как тензорный параллелизм и параллелизм моделей попадают во вторую. Такие подходы как

продолжить чтение

Хватит тестировать в лаборатории: Inclusion Arena показывает, как LLM работают в реальности

продолжить чтение

На пути к суперинтеллекту: от интернета агентов до кодирования гравитации — лучшие статьи об ИИ за июль 2025

продолжить чтение

IT Кэмп Сбера на big tech night: огонь, вода и медные трубы

12 сентября Яндекс, Сбер, X5, Т‑Банк и Lamoda впервые одновременно откроют двери ночью и покажут, где рождаются технологии. Приходите изнутри посмотреть на новейшие разработки и фичи — всё то, чего не видно при свете дня.

продолжить чтение

В бета-версии WhatsApp для iOS появился ИИ-помощник по написанию сообщений

WhatsApp выпустил

продолжить чтение

GPT-OSS-20B – 120B: Сухие цифры после реальных тестов

OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090. Что тестировалось:

продолжить чтение

Строим корпоративную GenAI-платформу: от концепции до ROI. Часть 1. Зачем генеративному ИИ нужна особая архитектура

Это первая статья из серии «Строим корпоративную GenAI-платформу: от концепции до ROI». В этой серии я расскажу, как компаниям подойти к внедрению генеративного ИИ (GenAI) системно, чтобы получить пользу и избежать подводных камней. Кому будет полезно. В первую очередь ИТ-архитекторам, инженерам по ИИ и руководителям в технологиях. Я разберу путь от первых концепций до измеримых результатов (ROI) и постараюсь дать практические рекомендации на каждом этапе.О серии статей.

продолжить чтение

Как адаптировать аналитику для тех, кто не хочет разбираться в графиках

продолжить чтение

Rambler's Top100