Январь 2026   |   Обзор события   | 7

OpenAI раскрыла, как работает AI-агент Codex для программирования

Инженер OpenAI Майкл Болин опубликовал техническое описание внутренней работы кодирующего агента Codex CLI, раскрыв детали реализации «агентного цикла» и взаимодействия модели GPT-5.2 с программными инструментами. Это раскрытие механизмов, включая управление контекстом и политику конфиденциальности, позволяет разработчикам глубже понять, как AI-агенты могут использоваться в задачах программирования.

ИСХОДНЫЙ НАРРАТИВ

Разработка AI-инструментов для программирования: взгляд изнутри

По данным Ars Technica, инженер OpenAI Майкл Болин представил техническое описание внутренней работы кодирующего агента Codex CLI. Публикация охватывает детали реализации так называемого «агентного цикла» (agent loop), что делает её полезной для разработчиков, интересующихся возможностями ИИ в написании, тестировании и отладке кода. Это дополнение к предыдущему материалу, опубликованному в декабре, позволяет глубже понять, как OpenAI применяет модели GPT-5.2 в задачах программирования.

Внутренняя структура агентного цикла

Центральной частью описанного в публикации механизма является «агентный цикл», который управляет взаимодействием между пользователем, моделью ИИ и программными инструментами, вызываемыми моделью для выполнения задач. Этот цикл включает в себя повторяющийся процесс: модель получает запрос, формирует ответ, который может включать вызовы инструментов, таких как выполнение команд в оболочке или чтение файлов. После этого агент выполняет инструкции, добавляет результат к истории взаимодействия и запрашивает модель снова.

Болин описывает, как Codex строит начальный запрос для API OpenAI, который отвечает за выполнение модели. Запрос формируется из нескольких компонентов, каждому из которых присвоена роль и приоритет: system, developer, user, assistant. Инструкции могут поступать из файла конфигурации пользователя или из встроенных в CLI инструкций. Поле tools определяет, какие функции доступны модели, включая команды оболочки, планировщики, инструменты поиска и пользовательские функции через протокол MCP (Model Context Protocol).

Важной особенностью является то, что с каждым новым взаимодействием длина запроса увеличивается. Это связано с тем, что Codex не использует параметр previous_response_id, позволяющий API ссылаться на сохранённое состояние разговора. Вместо этого каждый запрос отправляется полностью, что делает процесс полностью бесшовным. Такой подход упрощает реализацию для поставщиков API и поддерживает политику Zero Data Retention, при которой OpenAI не хранит данные пользователей.

Проблемы масштабируемости и оптимизации

Рост длины запроса напрямую связан с ограничением контекстного окна модели, которое ограничивает объём обрабатываемого текста за один запрос. Чтобы смягчить эту проблему, Codex использует кэширование запросов. Однако, кэширование работает только для точных совпадений префиксов, что требует тщательного управления операциями, которые могут привести к потере кэша. Изменения доступных инструментов, смена моделей или изменение конфигурации песочницы в процессе взаимодействия могут негативно сказаться на производительности.

Для автоматического сжатия контекста Codex применяет специализированный эндпоинт API, который делает историю взаимодействия компактной, сохраняя при этом важную информацию в зашифрованном виде. Ранее для этой операции требовалось вручную использовать команду, но в текущей версии процесс стал автоматизирован.

Открытость и доступность

Важным аспектом является открытость реализации Codex CLI. OpenAI разместила клиент CLI на GitHub, что позволяет разработчикам изучать его напрямую. Такой подход отличает Codex от других продуктов компании, таких как ChatGPT, детали внутренней работы которых остаются закрытыми. Это даёт возможность сообществу программистов анализировать и улучшать инструмент, основываясь на прозрачной архитектуре.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Перспективы развития

Болин отметил, что в дальнейших публикациях он планирует описать архитектуру CLI, детали реализации инструментов и модель песочницы Codex. Такие материалы могут быть полезны для тех, кто разрабатывает или интегрирует ИИ-инструменты в свои процессы.

АНАЛИТИЧЕСКИЙ РАЗБОР

Открытость Codex CLI и реалии зависимости: где заканчивается прозрачность

Открытость клиента Codex CLI, размещённого на GitHub, может выглядеть как прорыв в доступности ИИ-инструментов для программистов. Однако, как показывает анализ, доступность кода не равна доступности модели, на которой он работает. Codex CLI, как и другие инструменты, построенные на основе моделей OpenAI, включает в себя лишь внешний слой — клиентский интерфейс и логику взаимодействия с API. Сама модель GPT-5.2, её внутренняя архитектура и алгоритмы остаются вне досягаемости. Это создаёт новую форму зависимости, которая может ограничивать возможности даже тех, кто имеет полный доступ к исходному коду.

Открытые поля и закрытые модели: технические детали

Внутренняя структура Codex CLI включает четыре ключевых поля: system, developer, user, assistant. Каждое из них играет свою роль в формировании запроса и управлении контекстом. Поле system определяет базовые инструкции модели, developer — настройки пользователя, user — входные данные, assistant — ответ модели. Такая сегментация позволяет управлять поведением агента, но не даёт возможности влиять на внутреннюю логику модели. Это особенно важно для российских разработчиков, поскольку, даже при наличии локального доступа к клиенту, качество работы Codex CLI напрямую зависит от стабильности и доступности API OpenAI.

Важный нюанс: Кроме того, Codex CLI использует протокол MCP (Model Context Protocol), который определяет, как агент взаимодействует с внешними системами. MCP позволяет интегрировать модель с командами оболочки, планировщиками и пользовательскими функциями. Однако, поскольку сама модель остаётся закрытой, протокол не может стать основой для полной автономии — он лишь улучшает взаимодействие, но не даёт возможности изменить поведение модели.

Политика Zero Data Retention: безопасность или ограничение?

OpenAI придерживается политики Zero Data Retention, при которой данные пользователей не сохраняются. Это может восприниматься как позитивный шаг в плане безопасности, но в реальности создаёт технические сложности. Codex CLI не использует параметр previous_response_id, что означает, что каждый запрос отправляется полностью. Это делает процесс бесшовным, но увеличивает объём передаваемых данных. Для российских компаний, где доступ к иностранным технологическим ресурсам ограничен, это может стать дополнительным барьером.

Зависимость от HBM: новые технические ограничения

Открытость клиента Codex CLI не устраняет зависимость от закрытых компонентов, включая физическую инфраструктуру. OpenAI сотрудничает с SK Hynix в рамках проекта Stargate, что подчёркивает важность высокополосной памяти HBM для работы ИИ-моделей. Рост спроса на HBM привёл к увеличению цен на память, что, в свою очередь, влияет на стоимость использования таких моделей. Для небольших компаний и развивающихся рынков это может стать серьёзным ограничением, поскольку доступ к дорогостоящей инфраструктуре остаётся вне их возможностей.

Утечки данных и уязвимости: риски открытости

Публичная доступность Codex CLI на GitHub, как и других проектов, связанных с разработкой ИИ, не исключает рисков. Исследования показывают, что утечки данных через онлайн-инструменты, такие как сервисы форматирования кода и NPM, могут привести к компрометации конфиденциальной информации. Для российских разработчиков это означает, что даже при наличии открытого кода, использование Codex CLI требует повышенной осторожности. Утечка токенов GitHub, API-ключей или других данных может стать следствием неправильного подхода к безопасности.

Перспективы развития и стратегия для российского бизнеса

Для российских компаний, заинтересованных в использовании Codex CLI и аналогичных инструментов, ключевым становится поиск баланса между открытостью и независимостью. Открытость клиента может быть полезной для изучения и адаптации, но не решает проблему зависимости от закрытых моделей и дорогостоящей инфраструктуры. В долгосрочной перспективе, для минимизации рисков, целесообразно развивать локальные ИИ-инструменты, которые позволят управлять поведением модели и инфраструктурой без привязки к внешним поставщикам.

Выводы

Открытость Codex CLI — это первый шаг к прозрачности, но не решение всех проблем. Даже при наличии доступа к коду, зависимость от закрытых моделей, дорогостоящей памяти HBM и уязвимостей в экосистеме разработки остаётся. Для российского бизнеса это требует стратегического подхода: изучение открытых инструментов, параллельное развитие собственных решений и усиление мер безопасности при работе с ИИ-инструментами. Только так можно добиться устойчивости и гибкости в условиях быстро меняющегося технологического ландшафта.

Коротко о главном

Почему длина запроса в Codex CLI растёт с каждым взаимодействием?

Codex не использует параметр previous_response_id, что позволяет API OpenAI не хранить данные пользователей (Zero Data Retention), но приводит к тому, что каждый запрос отправляется полностью, включая всю историю взаимодействия, что увеличивает его объём.

Как Codex справляется с ограничением контекстного окна модели?

Для смягчения ограничений контекстного окна Codex использует кэширование запросов и специализированный эндпоинт API для автоматического сжатия истории взаимодействия, что позволяет сохранять важную информацию в компактной форме.

Почему Codex CLI доступен на GitHub?

OpenAI опубликовала исходный код Codex CLI на GitHub, чтобы разработчики могли изучать и улучшать архитектуру инструмента. Это отличает Codex от других продуктов компании, таких как ChatGPT, внутренняя реализация которых остаётся закрытой.

Какие инструменты доступны модели в Codex CLI?

Модель может использовать команды оболочки, планировщики, инструменты поиска и пользовательские функции через протокол MCP, что позволяет ей взаимодействовать с системой и выполнять задачи программирования.

Что планирует описать Майкл Болин в будущих публикациях?

Болин намерен раскрыть архитектуру CLI, детали реализации инструментов и модель песочницы Codex, что может быть полезно для разработчиков, интегрирующих ИИ-инструменты в свои процессы.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Облачные технологии; Разработка ПО; Бизнес; Цифровизация и технологии

Оценка значимости: 7 из 10

Событие имеет национальный масштаб в России, поскольку затрагивает развитие и применение ИИ в сфере программирования, что касается широкой группы разработчиков и IT-индустрии. Время воздействия среднесрочное, так как речь идёт о технологических инструментах, которые могут менять подходы к программированию в течение нескольких лет. Сферы влияния охватывают технологии, образование и экономику, что указывает на значительную интеграцию темы в различные аспекты жизни. Последствия средней глубины, поскольку это не кризис, а инновация, которая может изменить стандарты разработки, но не является системным или необратимым явлением.

Материалы по теме

SK Hynix ускоряет производство памяти для ИИ из-за роста спроса

Упоминание SK Hynix и проекта Stargate с OpenAI используется для подчёркивания зависимости Codex CLI от закрытой физической инфраструктуры. Данные о росте цен на HBM на 300% иллюстрируют, как внешние рыночные факторы влияют на стоимость использования ИИ-инструментов, что ограничивает доступ для небольших компаний и развивающихся рынков.

Подробнее →
Как утечки данных происходят через популярные онлайн-инструменты разработчиков

Утечки данных через популярные онлайн-инструменты форматирования кода, включая GitHub-токены, приводят к выводу о повышенной рискованности использования открытых ИИ-инструментов. Эти данные усиливают аргумент о необходимости осторожности российских разработчиков при работе с Codex CLI и аналогичными инструментами.

Подробнее →
NPM-атака: как злоумышленники скрывают вредоносные зависимости от анализа

Уязвимость NPM, позволяющая злоумышленникам украсть учетные данные GitHub, используется для подчёркивания рисков открытости Codex CLI. Эти данные подкрепляют тезис о том, что даже при наличии открытого кода, использование ИИ-инструментов требует повышенной безопасности.

Подробнее →
Microsoft блокирует уязвимые расширения VS Code после утечки данных

Утечка конфиденциальных данных GitHub через расширения VS Code демонстрирует уязвимости экосистемы разработки, что усиливает аргумент о рисках, связанных с использованием открытых ИИ-инструментов. Данные подчёркивают важность мер безопасности для российских разработчиков.

Подробнее →
Крупные ИИ-гиганты под угрозой: в модели может утекать защищённый контент

Риск утечки защищённого контента через ИИ-модели OpenAI используется для подчёркивания юридических и технических угроз, связанных с использованием Codex CLI. Данные усиливают тезис о том, что открытость не исключает рисков для пользователей.

Подробнее →
Amazon против ИИ-агентов: борьба за контроль над покупками

Упоминание протокола MCP в контексте конфликта между Perplexity и Amazon используется для объяснения его роли в взаимодействии ИИ-агентов с цифровыми платформами. Данные помогают описать, как MCP улучшает интеграцию, но не даёт полной автономии Codex CLI.

Подробнее →
Рынок памяти DRAM и NAND взорвётся: рост на 134% и цены вдвое

Рост спроса на память DRAM под влиянием ИИ используется для подчёркивания технических ограничений, связанных с зависимостью от закрытой инфраструктуры. Данные о росте цен на 60% иллюстрируют, как глобальные тенденции влияют на стоимость использования ИИ-инструментов.

Подробнее →