OpenAI Codex CLI в 2026

Codex CLI в 2026: локальный coding agent от OpenAI, ChatGPT sign-in, Codex App/Web split, MCP-конфигурация, IDE-расширение и Codex model family.

Старый обзор Codex CLI уже заметно устарел. В нём Codex описан как просто open-source ответ OpenAI на Claude Code с o4-mini по умолчанию и жёсткой sandbox-изоляцией. В 2026 картина шире: Codex стал целым продуктовым слоем OpenAI с несколькими поверхностями - CLI, IDE extension, Codex App и Codex Web.

Поэтому Codex CLI сейчас полезнее понимать не как отдельную "маленькую утилиту", а как локальный клиент в более широком Codex stack.

Codex CLI - это AI coding agent, который запускается прямо у вас в терминале. Вы даёте задачу вроде "почини падающие тесты" или "добавь логирование в API", а Codex читает проект, редактирует файлы, запускает команды и показывает результат. В отличие от обычного чат-бота, он работает как инструмент внутри репозитория.
Не путайте Codex CLI, Codex App и Codex Web. CLI - это локальный агент в терминале. App - desktop experience для нескольких агентов и worktrees. Web - облачный coding agent в ChatGPT. Это уже не один продукт в одном окне, как в старых статьях.

Короткая версия

Codex CLI в 2026 - это локальный OpenAI coding agent, который:

  • ставится через npm, brew или готовые binaries;
  • умеет логиниться не только по API key, но и через ChatGPT account;
  • живёт рядом с Codex IDE extension, Codex App и Codex Web;
  • использует dedicated Codex model family, а не только старую связку o4-mini + codex-mini.

Практически это означает:

  • для локальной работы в терминале нужен именно Codex CLI;
  • для VS Code / Cursor / Windsurf можно использовать IDE extension;
  • для параллельных задач и worktree-heavy workflow удобнее Codex App;
  • для background cloud delegation нужен Codex Web.
Старая рамка
Codex CLI - просто open-source терминальный агент OpenAI на `o4-mini`, безопасный из-за sandbox и отдельный от остального продукта.
Актуальная рамка 2026
Codex CLI - локальный клиент в Codex stack: ChatGPT sign-in, IDE extension, App/Web split, MCP config, Codex model family и гибкий local-vs-cloud workflow.

Что изменилось

Было в старых обзорахЧто точнее в 2026
Codex CLI как отдельный терминальный продуктCodex как stack: CLI, IDE, App, Web
Упор только на API keyСейчас важен Sign in with ChatGPT
o4-mini как основной mental modelАктуальнее GPT-5-Codex, GPT-5.3-Codex, codex-mini-latest
"Нет MCP"Codex уже умеет подключать MCP servers через config
ПромптCodex CLI
codex "Найди failing tests, исправь root cause и объясни, что поменялось"
Ответ модели

Codex читает проект локально, запускает тесты, редактирует нужные файлы, повторно запускает тестовый набор и показывает итог. Если workflow требует IDE или cloud delegation, теперь это уже не отдельная проблема CLI, а выбор другой поверхности Codex stack.

Берите Codex CLI, если хотите terminal-first workflow с локальным repo context. Если нужна параллельная работа нескольких агентов над разными ветками и проектами, чаще удобнее Codex App или Web.

1. Где Codex CLI находится в продуктовой линейке OpenAI

По текущим official sources Codex нужно читать как четыре поверхности:

  • Codex CLI - локальный агент в терминале;
  • Codex IDE extension - Codex прямо в VS Code, Cursor и Windsurf;
  • Codex App - desktop app для нескольких агентов, worktrees и skills;
  • Codex Web - облачный coding agent в ChatGPT.

Это важное изменение. Старый взгляд "CLI против Claude Code" всё ещё полезен, но уже не покрывает продукт целиком.

2. Локальная работа и вход через ChatGPT

Сейчас у Codex CLI есть два основных способа аутентификации:

  • Sign in with ChatGPT;
  • API key.

Это тоже существенный сдвиг. В старых обзорах CLI почти всегда описывался как чисто API-first инструмент. Теперь official README и Help Center прямо рекомендуют вход через ChatGPT account для планов Plus, Pro, Business, Enterprise/Edu, а API key остаётся скорее developer path.

Практический эффект:

  • CLI стал ближе к продуктовой подписке, а не только к raw API billing;
  • его проще сравнивать с Claude Code и Cursor не только как с API-клиентом, но и как с частью subscription experience;
  • setup для новых пользователей стал заметно проще.

3. Установка и поверхности запуска

По current README установить Codex CLI можно так:

npm install -g @openai/codex

или:

brew install --cask codex

Есть и binaries из GitHub Releases, что полезно для Linux-машин и controlled environments.

После установки логика запуска выглядит так:

  • codex - terminal-first CLI;
  • codex app - desktop app experience;
  • web path - chatgpt.com/codex.

То есть даже в локальном бинаре уже зашита идея, что CLI - только одна из поверхностей.

4. Модели: старая рамка o4-mini уже не главная

Самое заметное устаревание старой статьи - модельная часть.

Сейчас у OpenAI уже есть dedicated Codex model family:

  • gpt-5-codex;
  • gpt-5.1-codex;
  • gpt-5.3-codex;
  • codex-mini-latest.

Что важно:

  • GPT-5-Codex и более новые Codex snapshots описываются как модели, оптимизированные для agentic coding tasks;
  • codex-mini-latest остаётся fast/cost-effective lane, fine-tuned from o4-mini specifically for Codex CLI;
  • pricing уже не совпадает со старой идеей "CLI = o4-mini by default".

Практическая economics-рамка на 20 марта 2026:

МодельInputCached inputOutputКак её понимать
GPT-5-Codex$1.25$0.125$10.00Основной Codex-family lane
GPT-5.3-Codex$1.75$0.175$14.00Более сильный current coding lane
codex-mini-latest$1.50$0.375$6.00Быстрый и более дешёвый Codex CLI lane

Вывод здесь важный: статья больше не должна сводить Codex CLI к o4-mini. Эта рамка исторически понятна, но уже не отражает реальный product surface.

5. MCP и конфигурация

Ещё одно заметное устаревание старого материала - утверждение, будто у Codex CLI "нет MCP".

В current config docs OpenAI прямо пишет, что Codex может подключаться к MCP servers через ~/.codex/config.toml.

Это значит:

  • Codex уже нельзя описывать как полностью закрытый local-only CLI без tool ecosystem;
  • у него есть growing configuration surface вокруг MCP;
  • comparison с Claude Code теперь должна быть точнее: не "есть MCP / нет MCP", а "какой depth integration и какой maturity у MCP surface".

6. Что реально отличает Codex CLI

Сегодня у Codex CLI четыре сильные стороны:

  • terminal-first local workflow;
  • open-source repo и прозрачная distribution model;
  • тесная связка с более широким Codex stack;
  • явный переход к dedicated coding models.

И четыре ограничения:

  • по сравнению с IDE-native инструментами меньше визуального контекста;
  • в статье про CLI уже нельзя игнорировать App/Web split, потому что часть пользователей ожидает именно cloud delegation;
  • model / plan / rate-limit surface меняется довольно быстро;
  • comparison с Claude Code и Cursor нужно делать уже через operating model, а не через одну feature checkbox.

Плюсы

  • Локальный terminal-first workflow без обязательной IDE
  • Open-source distribution и понятная установка через npm/brew/releases
  • Поддержка ChatGPT sign-in, а не только API key
  • Интеграция в больший Codex stack: CLI, IDE, App, Web
  • Dedicated Codex model family вместо старой абстракции 'любой reasoning model'

Минусы

  • Старая mental model про Codex быстро устаревает из-за product churn
  • CLI уже нельзя оценивать изолированно от App/Web/IDE split
  • Для IDE-native пользователей Cursor или Copilot могут оставаться естественнее
  • Feature surface и model defaults меняются быстрее, чем у более стабильных IDE tools

7. Когда Codex CLI выбирать в 2026

Codex CLI особенно уместен, если:

  • вы живёте в терминале;
  • вам нужен локальный repo-aware coding agent;
  • вы хотите путь от ChatGPT subscription к local coding workflow без отдельной IDE migration;
  • вам важна совместимость с более широким Codex stack.

Codex CLI менее очевиден, если:

  • вы хотите максимально visual diff-first IDE workflow;
  • вам важнее editor-native опыт, чем terminal-first;
  • вы сравниваете его с Cursor не по agent quality, а по удобству постоянной IDE-работы.

8. Практический вывод

В 2026 Codex CLI - это уже не просто "open-source терминальный агент OpenAI". Это локальная точка входа в более широкий Codex stack с ChatGPT sign-in, IDE extension, App/Web split, MCP config surface и dedicated coding model family.

Именно поэтому старое описание через o4-mini, "нет MCP" и "просто ответ OpenAI на Claude Code" уже не выдерживает. Для нового читателя полезнее framing через operating model: локальный терминал, широкая Codex-экосистема и всё более выраженная product-line вокруг coding agents OpenAI.

Проверьте себя

Проверьте себя

1. Почему старое описание Codex CLI как просто `o4-mini`-агента уже неточно?

2. Что важно отличать в Codex product surface?

3. Какой update особенно важен по сравнению со старой статьёй?