LARM: как мультимодальные LLM меняют рекомендации для live-стриминга
Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).
Исследование: GPT-5 показала значительный прогресс в области кибербезопасности
Аналитики компании XBOW выяснили, что модель GPT-5 от OpenAI показала значительный прогресс в области кибербезопасности. Итоги её испытаний оказались вдвое лучше, чем у предшественников.
ML Q & AI. Глава 7. Парадигмы обучения на нескольких GPU
← Предыдущая глава | Какие существуют подходы к обучению на нескольких GPU и в чем их сильные и слабые стороны?Подходы к обучению на нескольких GPU можно разделить на две группы: разделение данных для параллельной обработки несколькими GPU и разделение модели по нескольким GPU для преодоления ограничений памяти, когда размер модели превышает возможности одной видеокарты. Параллелизм данных попадает в первую категорию, в то время как тензорный параллелизм и параллелизм моделей попадают во вторую. Такие подходы как
IT Кэмп Сбера на big tech night: огонь, вода и медные трубы
12 сентября Яндекс, Сбер, X5, Т‑Банк и Lamoda впервые одновременно откроют двери ночью и покажут, где рождаются технологии. Приходите изнутри посмотреть на новейшие разработки и фичи — всё то, чего не видно при свете дня.
GPT-OSS-20B – 120B: Сухие цифры после реальных тестов
OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090. Что тестировалось:
Строим корпоративную GenAI-платформу: от концепции до ROI. Часть 1. Зачем генеративному ИИ нужна особая архитектура
Это первая статья из серии «Строим корпоративную GenAI-платформу: от концепции до ROI». В этой серии я расскажу, как компаниям подойти к внедрению генеративного ИИ (GenAI) системно, чтобы получить пользу и избежать подводных камней. Кому будет полезно. В первую очередь ИТ-архитекторам, инженерам по ИИ и руководителям в технологиях. Я разберу путь от первых концепций до измеримых результатов (ROI) и постараюсь дать практические рекомендации на каждом этапе.О серии статей.

