o3 и o4-mini

Актуальный обзор reasoning-моделей OpenAI o3 и o4-mini на 20 марта 2026: succeeded by GPT-5 / GPT-5 mini, reasoning.effort, Responses API, tool use и когда эти модели ещё стоит держать в routing.

o3 и o4-mini были важной точкой в эволюции reasoning-моделей OpenAI: именно через них reasoning перестал быть редким экспериментом и стал обычным API-выбором с управляемой глубиной мышления, tool use и image reasoning. Но на 20 марта 2026 про них уже нельзя писать как про “текущий основной reasoning-слой OpenAI”. В official model docs o3 помечена как succeeded by GPT-5, а o4-mini — как succeeded by GPT-5 mini.

Это не делает их неактуальными. Скорее меняется их роль: в 2026 они важны как reference reasoning-модели, migration checkpoints и legacy routing options внутри OpenAI-стека. Если вы уже строили пайплайны вокруг o3 или o4-mini, статья всё ещё нужна. Если вы стартуете с нуля, смотреть на них надо уже рядом с GPT-5 и GPT-5 mini, а не вместо них.

Reasoning-модели сначала тратят часть токенов на внутренний анализ, а потом дают итоговый ответ. За счёт этого они сильнее на математике, коде и многошаговой логике, но часто медленнее и дороже обычных chat-first моделей.
OpenAI уже сместила основной current recommendation на GPT-5-линию. Поэтому o3 и o4-mini лучше понимать как важные reasoning-reference модели и legacy options, а не как автоматический default для новых проектов.

Коротко

МодельСтатус в docsКонтекстMax outputЦена вход / выход
o3succeeded by GPT-5200K100K$2 / $8
o4-minisucceeded by GPT-5 mini200K100K$1.10 / $4.40

Что в них главное

  • reasoning.effort для управления глубиной анализа;
  • tool use и image reasoning;
  • reasoning summaries вместо сырых chain-of-thought;
  • удобная reference-точка для сравнения с GPT-5 и GPT-5 mini.

Короткий вывод

Если у вас уже есть routing на o3/o4-mini, не мигрируйте вслепую. Если строите новый продукт, сначала сравните с GPT-5-линией, а o3/o4-mini держите как benchmark и compatibility-кандидатов.

1. Что это за модели и почему они всё ещё важны

o3 и o4-mini важны не только как отдельные модели, а как переходный слой OpenAI к productized reasoning.

По official materials OpenAI:

  • o3 была high-end reasoning-моделью для сложных coding, math и multimodal задач;
  • o4-mini проектировалась как более дешёвая и быстрая reasoning-модель с сильным quality-per-dollar;
  • обе модели умеют reasoning with images;
  • обе умеют работать с tools и function calling;
  • reasoning можно настраивать через reasoning.effort.

Именно поэтому они до сих пор полезны как practical reference: через них проще понять, как OpenAI вообще оформляет reasoning API.

2. Актуальный статус в 2026

Главная проблема старых обзоров в том, что они всё ещё описывают o3 и o4-mini как текущий центр OpenAI reasoning stack. Это уже неточно.

На 20 марта 2026 official model pages говорят:

  • o3succeeded by GPT-5;
  • o4-minisucceeded by GPT-5 mini.

Практический вывод:

  1. Эти модели остаются рабочими и полезными.
  2. Но они уже не должны считаться automatic first choice для нового проекта.
  3. Их нужно сравнивать с GPT-5-линией на реальных evals, а не выбирать “по инерции”.

3. Актуальные цифры: context, output, price

По current official docs и pricing:

МодельContext windowMax outputInputCached inputOutput
o3200,000100,000$2.00 / 1M$0.50 / 1M$8.00 / 1M
o4-mini200,000100,000$1.10 / 1M$0.275 / 1M$4.40 / 1M

Это уже важнее старых benchmark-таблиц, потому что именно такие цифры влияют на production-routing.

Практически:

  • o4-mini заметно рациональнее для budget-sensitive reasoning;
  • o3 всё ещё может быть оправдана там, где цена ошибки выше цены токенов.
Output price: o3 vs o4-mini ($ за 1M токенов)
o4-mini4.4%
o38%

4. Что реально отличает o3

o3 не стоит описывать просто как “старую дорогую reasoning-модель”. На official launch page OpenAI подчёркивает:

  • frontier-grade reasoning across coding, math, science and visual tasks;
  • strong multimodal reasoning;
  • умение agentically использовать tools;
  • более надёжное поведение на real-world hard tasks по сравнению с earlier o-series.

Практически o3 до сих пор логична для:

  • сложного debugging;
  • архитектурных решений;
  • high-stakes code review;
  • аналитики, где нужно многошаговое рассуждение, а не быстрый chat-style ответ.
Если ошибка модели дорогая, o3 может оставаться разумным выбором даже после появления GPT-5. Здесь важнее стоимость неправильного вывода, чем сам факт, что модель уже не current default.

5. Что реально отличает o4-mini

o4-mini была ценна не как “урезанная o3”, а как fast cost-efficient reasoning lane OpenAI.

OpenAI отдельно подчёркивала:

  • сильный профиль на math, coding и visual tasks;
  • очень хорошую эффективность для high-volume usage;
  • особенно сильный результат на AIME 2024/2025;
  • полезность как high-throughput reasoning option.

Для 2026 это значит:

  • o4-mini удобно держать как legacy reasoning default;
  • она подходит для массового reasoning-трафика, где o3 уже слишком дорога;
  • она остаётся хорошим migration benchmark против GPT-5 mini.

6. reasoning.effort: главная инженерная фича

Старые статьи часто подают reasoning как “магическое скрытое мышление”. Для практики важнее другое: o3 и o4-mini дали разработчику управляемую ручку глубины анализа.

УровеньЧто происходитКогда использовать
lowМинимальный внутренний анализПростые reasoning-задачи, cost-sensitive traffic
mediumБаланс качества, стоимости и latencyДефолт для большинства инженерных задач
highМаксимально глубокий анализСложный код, математика, дорогие по ошибке кейсы

Важно:

  • reasoning-токены не видны как raw chain-of-thought;
  • вместо этого можно запросить reasoning.summary;
  • высокая глубина быстро раздувает и latency, и цену.
Без техники
{ "title": "Плохой паттерн", "content": "Все запросы идут в `o3` с `reasoning.effort='high'`, даже если это простая классификация или короткий SQL-анализ." }
С техникой
{ "title": "Рабочий паттерн", "content": "Базовый трафик идёт в более дешёвую модель или в `low/medium`, а `high` включается только там, где дорогая ошибка действительно оправдывает лишние токены и latency." }

7. Responses API и reasoning summaries

Ещё одно место, где старый обзор устарел: он строился вокруг Chat Completions как главного интерфейса. В current OpenAI docs reasoning guide уже ведёт разработчика через Responses API.

По official guide:

  • reasoning-модели работают через responses.create;
  • глубина задаётся через reasoning={"effort": ...};
  • сырые reasoning tokens не раскрываются;
  • вместо этого можно включить summary, чтобы получить краткую reasoning summary.

Это меняет и developer ergonomics, и то, как надо писать обучающую статью в 2026.

8. Где o3/o4-mini уже проигрывают

Они уже не current recommendation внутри OpenAI

Это главный сдвиг. Новая OpenAI framing уже идёт через GPT-5 и GPT-5 mini.

Они не лучший выбор для любого запроса

Если задача не требует deep reasoning, вы платите за неиспользованную глубину.

У них уже не самый впечатляющий context story

200K всё ещё много, но это больше не уникальный headline advantage на рынке 2026.

Плюсы

  • `o3` остаётся сильной high-end reasoning reference-моделью
  • `o4-mini` даёт хороший reasoning profile за меньшие деньги
  • `reasoning.effort` удобно использовать для routing
  • Обе модели поддерживают tools и image reasoning
  • Хорошая база для migration evals внутри OpenAI

Минусы

  • Обе модели уже marked as succeeded в official docs
  • Это не лучший automatic default для новых проектов
  • `200K` контекста уже не выглядит уникальным
  • Высокий effort легко раздувает цену и latency

Как использовать их в 2026

Самый полезный паттерн сейчас — не выбирать одну модель навсегда, а держать o3 и o4-mini как управляемые ветки routing.

type ReasoningPolicy = {
  budgetSensitive: boolean
  errorCost: "low" | "medium" | "high"
  alreadyOnLegacyORouting: boolean
}

export function pickOpenAIReasoningModel(policy: ReasoningPolicy) {
  if (policy.errorCost === "high") return "o3"
  if (policy.budgetSensitive || policy.alreadyOnLegacyORouting) return "o4-mini"
  return "gpt-5-mini"
}

Минимальный вызов через Responses API

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o3",
    input="Разбери причины деградации P95 latency после релиза.",
    reasoning={"effort": "high"},
)

print(response.output_text)

Более дешёвый reasoning через o4-mini

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o4-mini",
    input="Оптимизируй SQL-запрос и объясни, почему именно так.",
    reasoning={"effort": "medium"},
)

print(response.output_text)

Получить reasoning summary

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o4-mini",
    input="Сравни две архитектуры очередей и выбери более надёжную.",
    reasoning={"effort": "medium", "summary": "auto"},
)

print(response.output_text)

Практическое правило

ПромптOpenAI routing policy
У нас есть code review, SQL-анализ, продуктовая аналитика и редкие high-stakes архитектурные решения. Как развести o3 и o4-mini?
Ответ модели
  1. Массовый reasoning-трафик и аналитика по умолчанию -> o4-mini.
  2. Дорогие по ошибке архитектурные и debugging-кейсы -> o3.
  3. Параллельно мерить те же сценарии на GPT-5 / GPT-5 mini, потому что o-линейка уже не current default в official docs.

Проверьте себя

Проверьте себя

1. Как current OpenAI docs обозначают статус `o3` на 20 марта 2026?

2. Зачем нужен `reasoning.effort`?

3. Какой API path current reasoning guide OpenAI показывает как основной?