openai. - страница 31

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

Atlas от OpenAI получает мультипрофили и обновления для рабочих пространств

продолжить чтение

OpenAI представляет GPT-5.2-Codex — продвинутый инструмент для программной инженерии

продолжить чтение

OpenAI выпустили GPT-5.2-Codex

GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах

продолжить чтение

В ChatGPT появился каталог приложений

продолжить чтение

Ошибка с откатом GPT-5 Router показала, почему ИИ нужно учиться избавляться от старых привычек

продолжить чтение

GPT-5.1 vs GPT-5.2: какое поколение ИИ круче? Сравнение архитектуры, цен и возможностей

продолжить чтение

OpenAI сделала бенчмарк для проверки научного мышления ИИ

продолжить чтение

OpenAI: один из барьеров для развития ИИ — низкая «скорость печати» людьми

Руководитель разработки инструмента программирования Codex от OpenAI Александр Эмбирикос заявил, что «текущим недооценённым ограничивающим фактором» для достижения ИИ общего назначения является «скорость человеческой печати» или «скорость многозадачности человека при написании подсказок».

продолжить чтение

Как поднять точность RAG-агента: чек-лист и инструменты. Часть 2. Финал

В первой части я разбирал архитектуру AI-агента, выбор между RAG и GraphRAG на примере AI-юриста для техподдержки. Если пропустили – https://habr.com/ru/articles/975230/Во второй части решил уделить внимание тому, как добиться нормального качества поиска и точности ответов. Чтобы AI-агент не остался в песочнице и не превратился в очередной эксперимент "мы попробовали, не взлетело".Надеюсь мой опыт будет полезен и вы сэкономите себе деньги, нервы и время. А может быть и вовсе откажетесь от идеи создания агента — это тоже нормальный исход.

продолжить чтение