Машинное обучение. - страница 183

LLM передают ИИ в руки гуманитариев

Встреча с Богом (х/ф "Космическая Одиссея 2001")

продолжить чтение

Глава Microsoft AI предупредил о риске «психоза ИИ»

Руководитель Microsoft AI Мустафа Сулейман опубликовал

продолжить чтение

Выручка OpenAI впервые превысила $1 млрд в месяц

Финансовый директор OpenAI Сара Фрайер рассказала

продолжить чтение

Релиз открытой модели ByteDance: Seed-OSS-36B с контекстом в 512 000 токенов

TikTok снова в центре внимания — на этот раз благодаря Белому дому, который завёл аккаунт в популярном приложении. Но сюрприз подготовила и сама ByteDance

продолжить чтение

Новое письмо от руководства Google: ИИ должен быть в работе повсюду

Для сотрудников Google «идти в ногу со временем» теперь означает не только разрабатывать ИИ, но и уметь работать с ним каждый день.

продолжить чтение

Как найти своё призвание за два года, а не за десять

Сколько людей вы знаете, которые говорят: — Я работаю уже десять лет, но понимаю, что это вообще не моё. Это происходит постоянно. Человек учится в бакалавриате, устраивается на первую работу, несколько лет работает, понимает, что не нравится, пробует другое место, потом ещё одно… И только к 35-40 годам начинает осознавать, что ему действительно интересно. Проблема в том, что мир меняется слишком быстро, чтобы позволить себе такой долгий процесс поиска. Но что, если можно сжать этот путь до двух лет?

продолжить чтение

LARM: как мультимодальные LLM меняют рекомендации для live-стриминга

Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).

продолжить чтение

Исследование: GPT-5 показала значительный прогресс в области кибербезопасности

Аналитики компании XBOW выяснили, что модель GPT-5 от OpenAI показала значительный прогресс в области кибербезопасности. Итоги её испытаний оказались вдвое лучше, чем у предшественников.

продолжить чтение

ML Q & AI. Глава 7. Парадигмы обучения на нескольких GPU

← Предыдущая глава | Какие существуют подходы к обучению на нескольких GPU и в чем их сильные и слабые стороны?Подходы к обучению на нескольких GPU можно разделить на две группы: разделение данных для параллельной обработки несколькими GPU и разделение модели по нескольким GPU для преодоления ограничений памяти, когда размер модели превышает возможности одной видеокарты. Параллелизм данных попадает в первую категорию, в то время как тензорный параллелизм и параллелизм моделей попадают во вторую. Такие подходы как

продолжить чтение

Хватит тестировать в лаборатории: Inclusion Arena показывает, как LLM работают в реальности

продолжить чтение

Rambler's Top100