OpenAI раскрыла внутреннюю механику Codex CLI. openai.. openai. Блог компании BotHub.. openai. Блог компании BotHub. Будущее здесь.. openai. Блог компании BotHub. Будущее здесь. ИИ.. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
OpenAI раскрыла внутреннюю механику Codex CLI - 1

OpenAI опубликовала подробный технический разбор Codex CLI, локального агентного инструмента для работы с кодом прямо на машине пользователя. Материал особенно полезен тем, кто разрабатывает собственных агентов или оптимизирует расходы на инференс и работу с контекстом.

В основе Codex CLI лежит классический agent loop. Пользователь отправляет запрос, после чего система собирает большой промпт с инструкциями проекта. На инференсе модель либо отвечает текстом, либо инициирует вызов инструмента. Агент выполняет команду, добавляет результат обратно в контекст и снова обращается к модели. Цикл повторяется до тех пор, пока задача не будет завершена. Важно учитывать жесткий лимит: все инструкции из AGENTS.md и корневых директорий проекта агрегируются в один JSON размером не более 32 Кб.

OpenAI раскрыла внутреннюю механику Codex CLI - 2

Отдельное внимание уделено проблеме стоимости контекста. История диалога растет на каждом шаге и формально должна приводить к квадратичному росту затрат. Чтобы этого избежать, используется кэширование промптов. Пока префикс запроса не меняется, инференс остается линейным по стоимости. Но кэш крайне чувствителен: изменение порядка инструментов или незначительная правка конфигурации полностью сбивает кэш хиты и резко увеличивает цену запроса.

Еще одно важное изменение касается архитектуры API. Codex CLI полностью перешел на stateless модель работы. Параметр previous_response_id убрали осознанно, чтобы поддержать режимы Zero Data Retention. Провайдер не хранит состояние диалога, а даже цепочки рассуждений передаются в зашифрованном виде. Ключ остается на сервере, данные у клиента, долговременного хранения нет.

OpenAI раскрыла внутреннюю механику Codex CLI - 3

Когда контекстное окно начинает заполняться, автоматически включается механизм компакции. Вместо простого удаления старых сообщений модель сжимает их в специальный компактный блок. Он занимает минимум места, но сохраняет смысл предыдущего диалога. Процесс запускается автоматически при достижении лимита auto_compact_limit и не требует ручной команды.

Дополнительно OpenAI напомнила, что Codex CLI не привязан только к их серверам. С помощью флага –oss инструмент может работать и с локальными моделями через Ollama или LM Studio.

В следующих публикациях компания обещает подробнее разобрать архитектуру CLI, реализацию инструментов и модель песочницы Codex.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Автор: cognitronn

Источник

Rambler's Top100