Старый обзор Codex CLI уже заметно устарел. В нём Codex описан как просто open-source ответ OpenAI на Claude Code с o4-mini по умолчанию и жёсткой sandbox-изоляцией. В 2026 картина шире: Codex стал целым продуктовым слоем OpenAI с несколькими поверхностями - CLI, IDE extension, Codex App и Codex Web.
Поэтому Codex CLI сейчас полезнее понимать не как отдельную "маленькую утилиту", а как локальный клиент в более широком Codex stack.
Codex CLI, Codex App и Codex Web. CLI - это локальный агент в терминале. App - desktop experience для нескольких агентов и worktrees. Web - облачный coding agent в ChatGPT. Это уже не один продукт в одном окне, как в старых статьях.По текущим official sources Codex нужно читать как четыре поверхности:
Это важное изменение. Старый взгляд "CLI против Claude Code" всё ещё полезен, но уже не покрывает продукт целиком.
Сейчас у Codex CLI есть два основных способа аутентификации:
Sign in with ChatGPT;API key.Это тоже существенный сдвиг. В старых обзорах CLI почти всегда описывался как чисто API-first инструмент. Теперь official README и Help Center прямо рекомендуют вход через ChatGPT account для планов Plus, Pro, Business, Enterprise/Edu, а API key остаётся скорее developer path.
Практический эффект:
По current README установить Codex CLI можно так:
npm install -g @openai/codex
или:
brew install --cask codex
Есть и binaries из GitHub Releases, что полезно для Linux-машин и controlled environments.
После установки логика запуска выглядит так:
codex - terminal-first CLI;codex app - desktop app experience;chatgpt.com/codex.То есть даже в локальном бинаре уже зашита идея, что CLI - только одна из поверхностей.
o4-mini уже не главнаяСамое заметное устаревание старой статьи - модельная часть.
Сейчас у OpenAI уже есть dedicated Codex model family:
gpt-5-codex;gpt-5.1-codex;gpt-5.3-codex;codex-mini-latest.Что важно:
GPT-5-Codex и более новые Codex snapshots описываются как модели, оптимизированные для agentic coding tasks;codex-mini-latest остаётся fast/cost-effective lane, fine-tuned from o4-mini specifically for Codex CLI;Практическая economics-рамка на 20 марта 2026:
| Модель | Input | Cached input | Output | Как её понимать |
|---|---|---|---|---|
GPT-5-Codex | $1.25 | $0.125 | $10.00 | Основной Codex-family lane |
GPT-5.3-Codex | $1.75 | $0.175 | $14.00 | Более сильный current coding lane |
codex-mini-latest | $1.50 | $0.375 | $6.00 | Быстрый и более дешёвый Codex CLI lane |
Вывод здесь важный: статья больше не должна сводить Codex CLI к o4-mini. Эта рамка исторически понятна, но уже не отражает реальный product surface.
Ещё одно заметное устаревание старого материала - утверждение, будто у Codex CLI "нет MCP".
В current config docs OpenAI прямо пишет, что Codex может подключаться к MCP servers через ~/.codex/config.toml.
Это значит:
Сегодня у Codex CLI четыре сильные стороны:
И четыре ограничения:
Codex CLI особенно уместен, если:
Codex CLI менее очевиден, если:
В 2026 Codex CLI - это уже не просто "open-source терминальный агент OpenAI". Это локальная точка входа в более широкий Codex stack с ChatGPT sign-in, IDE extension, App/Web split, MCP config surface и dedicated coding model family.
Именно поэтому старое описание через o4-mini, "нет MCP" и "просто ответ OpenAI на Claude Code" уже не выдерживает. Для нового читателя полезнее framing через operating model: локальный терминал, широкая Codex-экосистема и всё более выраженная product-line вокруг coding agents OpenAI.
1. Почему старое описание Codex CLI как просто `o4-mini`-агента уже неточно?
2. Что важно отличать в Codex product surface?
3. Какой update особенно важен по сравнению со старой статьёй?