openai. - страница 9

Обзор Gemini 3 Flash: как Google перехватывает инициативу на рынке ИИ в 2025 году

продолжить чтение

OpenAI обновляет модель Codex и добавляет программу для кибербезопасности

продолжить чтение

Сэм Альтман опять разочаровался в термине AGI. Новая цель — суперинтеллект

Глава OpenAI Сэм Альтман в разговоре

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

Atlas от OpenAI получает мультипрофили и обновления для рабочих пространств

продолжить чтение

OpenAI представляет GPT-5.2-Codex — продвинутый инструмент для программной инженерии

продолжить чтение

OpenAI выпустили GPT-5.2-Codex

GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах

продолжить чтение

В ChatGPT появился каталог приложений

продолжить чтение

Ошибка с откатом GPT-5 Router показала, почему ИИ нужно учиться избавляться от старых привычек

продолжить чтение

GPT-5.1 vs GPT-5.2: какое поколение ИИ круче? Сравнение архитектуры, цен и возможностей

продолжить чтение

Rambler's Top100