- BrainTools - https://www.braintools.ru -

OpenAI выпустила [1] GPT-Realtime-2 — первую голосовую модель компании с уровнем рассуждений GPT-5. На бенчмарке Big Bench Audio (тест на способность аудиомоделей рассуждать) она показала 96,6% против 81,4% у предыдущей версии gpt-realtime-1.5 — прирост в 15,2 пункта. Параллельно с ней OpenAI представила еще две специализированные модели: GPT-Realtime-Translate для синхронного перевода с 70+ языков на 13 и GPT-Realtime-Whisper для потоковой транскрипции.
Главное изменение в GPT-Realtime-2 — режим рассуждений, повышающий точность модели в задачах на логику [2], математику [3] и поиск сложных ответов. Сама OpenAI оценивает производительность в этом режиме на уровне прошлогодней GPT-5 — отличный результат для голосовой модели. Так как работа режима рассуждений занимает время, то модель обучена говорить о том, чем занята. Появились преамбулы (“секунду, проверяю”), параллельные вызовы инструментов с озвучкой действия (“смотрю в твоем календаре”), и более мягкое восстановление при сбое — вместо молчания модель скажет “у меня сейчас проблема с этим”. Контекст вырос с 32 тысяч токенов до 128 тысяч — четырехкратный рост, нужный для длинных агентских сценариев.
Разработчику доступны пять уровней глубины рассуждений: minimal, low, medium, high и xhigh. Для бронирования столика хватит minimal, для разбора жалобы клиента можно поднять до high. Преамбулы и параллельные вызовы инструментов с озвучкой как раз закрывают разрыв: пока модель думает, она проговаривает, чем занята, и пользователь не сидит в тишине.
Цифры партнеров выглядят сильно. Zillow прогнали модель через стресс-тест с каверзными запросами и получили долю успешных диалогов в 95% против 69% у предыдущей модели — рост на 26 пунктов. По словам Джоша Вайсберга, главы AI-направления Zillow, помимо роста точности модель оказалась существенно надежнее в плане соблюдения закона Fair Housing — американского закона, запрещающего дискриминацию в недвижимости по расе, полу и семейному статусу, а это критичный момент для всего бизнеса компании. На втором бенчмарке Audio MultiChallenge, где проверяют способность вести многоходовой диалог (следовать инструкциям, держать контекст, реагировать [4] на правки), GPT-Realtime-2 в режиме xhigh набрала 48,5% против 34,7% у предшественницы.
Realtime-Translate ориентирован на сценарии, где две стороны говорят на разных языках: техподдержку, продажи, образование. Deutsche Telekom тестирует модель в мультиязычной поддержке клиентов, Vimeo — для синхронного перевода продуктовых видео прямо во время воспроизведения. Realtime-Whisper — потоковая версия привычного Whisper, транскрипция появляется по мере речи, а не после завершения фразы; это закрывает запрос на живые субтитры и заметки на встречах. В API GPT-Realtime-2 стоит $32 за миллион входных аудио-токенов (40 центов за миллион кешированных) и $64 за миллион выходных — столько же, сколько у gpt-realtime, но с прокачанными рассуждениями. Translate обойдется в 3,4 цента за минуту, Whisper — в 1,7 цента. В ChatGPT модель появится позже.
P.S. Поддержать меня можно подпиской на канал “сбежавшая нейросеть [5]“, где я рассказываю про ИИ с творческой стороны.
Автор: runaway_llm
Источник [6]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/30070
URLs in this post:
[1] выпустила: https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/
[2] логику: http://www.braintools.ru/article/7640
[3] математику: http://www.braintools.ru/article/7620
[4] реагировать: http://www.braintools.ru/article/1549
[5] сбежавшая нейросеть: https://t.me/ai_exee
[6] Источник: https://habr.com/ru/news/1033678/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1033678
Нажмите здесь для печати.