OpenAI выпустили Operator – ИИ-агента для автономного управления компьютером
Да, это тот самый агент, о котором так много писали в СМИ, и которого так долго ждали все любители ИИ. Это система, которая может самостоятельно управлять компьютером, выполнять сложные задачи и взаимодействовать с браузером. Например, с помощью Operator можно заказать доставку, спланировать путешествие, забронировать столик и так далее.
Разбираемся, как устроена R1 – новая бесплатная ризонинг модель ИИ из Китая, работающая на уровне o1 от OpenAI
Вчера, 20 января, китайская лаборатория DeepSeek сделала нам всем настоящий подарок, открыв доступ к новой reasoning-модели R1, которая уже штурмует вершины ML-бенчмарков. R1 – не просто еще одна рассуждающая модель: это первая бесплатная моделька с открытыми весами, которая добивается таких результатов. На математическом бенчмарке AIME 2024 она достигает 79.8%, обогнав даже обновленную версию o1 с ее 79.2%, не говоря уже об o1-mini (63.6%). В кодинге R1 тоже хороша. Например, на Codeforces ее результат – 96.3%, что практически недостижимо для большинства людей.
Google представили Titan: архитектуру нейросетей, которая может стать новой серебряной пулей LLM
Все современные LLM построены на архитектуре трансформера. GPT-4o от OpenAI, Gemini от Google, Claude Sonet от Anthropic, Grok от xAI... перечислять можно долго. Трансформер – действительно очень мощная архитектура (и кстати тоже была придумала в Google), но и в ней есть свои недостатки.
Как банки предсказывают кредитные риски: опыт создания PD-моделей из ФинТеха
Представьте, что вы управляете кредитным портфелем банка: каждый выданный кредит – это ставка на то, что клиент выполнит свои обязательства. Как понять, кто из заемщиков надежен, а кто может не справиться с платежами? Здесь на помощь приходят Probability of Default (PD) модели.PD-модели – это инструменты, используемые в банковском секторе для оценки вероятности дефолта заемщика в течение определенного периода времени. Они играют важную роль в управлении рисками и кредитной политике банка.
Самые продвинутые LLM дают прогнозы своего развития на 2025 год
Я задал следующий вопрос наиболее популярным LLM.Сделай прогноз на 2025 год.Какие существенные изменения произойдут в области разработки и внедрения систем ИИ по сравнению с текущим уровнем и какие принципиально новые уровни будут достигнуты. Как в связи с этим изменится наша жизнь. Ответ должен быть конкретным и реалистичным.
Как LLM меняют архитектуру систем: от простых дата-пайплайнов к интеллектуальным автономным агентам
На каждой технической конференции в последнее время обязательно звучит слово «агенты». Они преподносятся по разному: и как следующая ступенька после RAG, и как серебряная пуля для всех проблем, и как абсолютная замена всех классических пайплайнов. А кто еще не использует агентов — безнадежно отстал от прогресса.Классика, LLM-ассистент и LLM-агент
Как машинное обучение объясняет реальный мир
Природа мира склонна повторять себя, например: каждый раз, когда возникает вопрос об эффективном использовании ограниченных ресурсов, мы изобретаем кэши. Компьютеры, иерархии компаний, DNS — все это примеры того, как одни и те же подходы вновь и вновь используются для решения схожих задач. Эта фрактальная природа мира объясняет, почему обучение нейронных сетей так похоже на человеческое: и там и там базовая структура это нейронная сети.
Люди и LLM похожи больше, чем вы думаете. У нас тоже есть системный промпт, контекст и всё остальное
Люди и модели похожи больше, чем вы думаете. Собственно, это и не удивительно, ведь модели для этого и создаются. В идеале они должны когда-нибудь стать вообще неотличимыми от людей. Но как это проявляется сейчас, на данном этапе их развития? И в чем конкретно мы так похожи на них, или они на нас? Подойдем к этому вопросу в терминах, свойственных самим LLM.
Выяснилось, что LLM могут считать, что 9.8 < 9.11, из-за Библии, физики или даже теракта 11 сентября
Исследователи из Transluce – только что анонсированной некоммерческой ИИ лаборатории – создали инструмент Monitor, который поможет людям наблюдать, понимать и управлять внутренними вычислениями языковых моделей. В ходе экспериментов ученые рассмотрели несколько известных задач, в которых LLM традиционно ошибаются, и выяснили, с чем могут быть связаны такие галлюцинации.