o3.

o3.

OpenAI теряет ещё четырёх ведущих исследователей, которые присоединились к Meta*

Meta наняла ещё четырёх ведущих исследователей ИИ из OpenAI. Цзяхуэй Ю, Хунъю Жэнь, Шучао Би и Шэнцзя Чжао ранее работали над такими базовыми моделями, как GPT-4.1, o3, o1, и занимались мультимодальной постобработкой в OpenAI.

продолжить чтение

OpenAI: выход новых моделей ИИ может повлечь риск создания биологического оружия

Руководители OpenAI предупредили, что будущие модели искусственного интеллекта могут нести новые риски, вплоть до создания биологического оружия. Компания усиливает тестирование таких моделей, а также внедряет новые меры предосторожности.

продолжить чтение

OpenAI o3-pro может оказаться слишком умным для светской беседы

Компания OpenAI запустила o3-pro для пользователей Pro в ChatGPT и через API. Новая модель предназначена для предоставления более надёжных и подробных ответов за счёт использования большей вычислительной мощности, хотя это приводит к заметному замедлению времени ответа даже на простые запросы.

продолжить чтение

Модель Google Gemini 2.5 Pro превосходит модель OpenAI o3 в обработке сложных и длинных текстов

В настоящее время Google Gemini 2.5 Pro лидирует в тесте Fiction.Live на обработку сложных и длинных текстов. Тест измеряет, насколько хорошо языковые модели могут понимать и точно воспроизводить сложные истории и контексты — задачи, которые выходят далеко за рамки простых функций поиска, таких как те, что оцениваются в популярном тесте «Иголка в стоге сена».

продолжить чтение

На START, внимание, марш: как победить галлюцинации и научить LLM точным вычислениям

START — опенсорсная LLM для точных вычислений и проверки кода. В START решены две главные проблемы большинства обычных моделей: галлюцинации и ошибки в многоэтапных расчетах. В статье разберемся, зачем и как именно эти проблемы решены.

продолжить чтение

Как я нашёл уязвимость в ядре Linux при помощи модели o3

В этом посте я расскажу, как нашёл уязвимость нулевого дня в ядре Linux при помощи модели OpenAI o3. Уязвимость обнаружилась благодаря одному лишь API o3 — не потребовались никакая дополнительная настройка, агентские фреймворки и инструменты.

продолжить чтение

Security Week 2522: уязвимость в ядре Linux обнаружена с помощью LLM

Всего две недели назад мы писали о негативных последствиях бездумного использования искусственного интеллекта для поиска уязвимостей, когда разработчикам ПО через сервис Bug Bounty присылают отчеты о несуществующих проблемах. На прошлой неделе появился противоположный пример: исследователь Шон Хилан подробно описал, как он смог обнаружить реальную уязвимость в ядре Linux с использованием LLM o3 компании OpenAI. Уязвимость CVE-2025-37899 была обнаружена в коде ksmbd, который отвечает за реализацию протокола обмена файлами SMB3. Это уязвимость типа Use-After-Free, и сама по себе она не представляет особого интереса — рейтинг ее опасности по шкале CVSS составляет всего 4 балла из 10. Интерес представляет процесс ее обнаружения — это пример более осмысленного использования языковых моделей для поиска уязвимостей.

продолжить чтение

Palisade Research: ChatGPT o3 иногда отказывается подчиняться базовой инструкции по выключению

Недавнее исследование «опасных возможностей ИИ» от Palisade Research показывает, что некоторые модели искусственного интеллекта, включая o3 от OpenAI, могут игнорировать прямые команды выключения. OpenAI позиционирует O3 и o4-mini как «самые умные модели».

продолжить чтение

OpenAI обновляет модель искусственного интеллекта, на которой работает агент Operator

OpenAI обновляет модель искусственного интеллекта Operator, своего ИИ-агента, который может автономно просматривать веб-страницы и использовать определённое программное обеспечение на виртуальной машине в облаке для выполнения запросов пользователей.

продолжить чтение

Пару слов о «ломаном» универсальном ИИ: o3, Gemini 2.5 и туманное будущее

продолжить чтение

123
Rambler's Top100