o1.

o1.

OpenAI анонсировали Deep Research — самостоятельного агента для исследований

В 16:00 по Pacific Time OpenAI запустили стрим, на котором анонсировали новый продукт компании - Deep Research, особый режим для ChatGPT, в котором он переходит в режим высокой автономности, и может проводить длительные глубокие исследования - самостоятельно вырабатывать план работ, ходить по интернету в поисках информации, агрегировать и анализировать данные при помощи Python-скриптов, и всё это полностью без участия человека.

продолжить чтение

OpenAI объявила о партнёрстве с Национальными лабораториями США для «стимулирования научных прорывов»

OpenAI объявила о заключении договора о сотрудничестве с Национальными лабораториями США, чтобы «дать толчок их научным исследованиям с помощью своих новейших моделей рассуждения». Компания назвала правительство США критически важным партнёром в вопросе обмена технологиями OpenAI с ведущими учёными страны.

продолжить чтение

DeepSeek и её модель рассуждений R1: что говорят эксперты и потребители

С тех пор как китайская компания DeepSeek, занимающаяся искусственным интеллектом, выпустила открытую версию своей модели рассуждений R1 в начале этой недели, многие представители технологической отрасли делают громкие заявления о том, чего добилась компания и что это значит для развития AI.

продолжить чтение

Разбираемся, как устроена R1 – новая бесплатная ризонинг модель ИИ из Китая, работающая на уровне o1 от OpenAI

Вчера, 20 января, китайская лаборатория DeepSeek сделала нам всем настоящий подарок, открыв доступ к новой reasoning-модели R1, которая уже штурмует вершины ML-бенчмарков. R1 – не просто еще одна рассуждающая модель: это первая бесплатная моделька с открытыми весами, которая добивается таких результатов. На математическом бенчмарке AIME 2024 она достигает 79.8%, обогнав даже обновленную версию o1 с ее 79.2%, не говоря уже об o1-mini (63.6%). В кодинге R1 тоже хороша. Например, на Codeforces ее результат – 96.3%, что практически недостижимо для большинства людей.

продолжить чтение

Думающие модели o1-3: краткий обзор и чего программистам ждать дальше

Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Но, как и с детьми, даже тогда это не означало, что они действительно будут думать.Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.

продолжить чтение

Rambler's Top100