o3 и o4-mini (OpenAI)

Что умеют reasoning-модели OpenAI o3 и o4-mini: цены, context window, reasoning_effort, tool use и когда они ещё актуальны в 2026.

o3 и o4-mini — reasoning-модели OpenAI, которые сделали линейку o практической для реальных продуктов: не просто «умные модели», а API с управляемой глубиной рассуждений, tool use и image reasoning. Но на 16 марта 2026 про них важно говорить честно: это уже не единственная и не главная точка входа в OpenAI-экосистему. В developer docs OpenAI прямо помечает o3 как succeeded by GPT-5, а o4-mini — как succeeded by GPT-5 mini.

Это не делает их бесполезными. Наоборот: они остаются хорошей reference-точкой, чтобы понять, что именно OpenAI называет reasoning-моделью, как работает reasoning_effort, и почему в некоторых сценариях старая o-линейка всё ещё интересна для сравнения и миграций.

Обычные модели стараются ответить быстро. Reasoning-модели сначала тратят часть токенов на внутренний анализ, а потом дают итог. За счёт этого они сильнее на математике, коде и сложной логике, но обычно медленнее и дороже.
Сами модели важны исторически и практично, но для новых проектов OpenAI уже рекомендует смотреть и на более новую линейку GPT-5 / GPT-5 mini. Это инженерный вывод из официальных страниц моделей, где o3 и o4-mini обозначены как succeeded.

Коротко

МодельСтатус в docsКонтекстЦена вход / выходКогда смотреть
o3succeeded by GPT-5200K$2 / $8High-stakes reasoning, старые интеграции, сравнение с GPT-5
o4-minisucceeded by GPT-5 mini200K$1.10 / $4.40Недорогой reasoning в OpenAI-стеке, legacy routing

Что в них главное:

  • reasoning_effort для управления глубиной рассуждений;
  • tool use и image reasoning;
  • 100K max output tokens у обеих моделей;
  • заметно более сильный reasoning-профиль, чем у обычных chat-first моделей своего времени.

Короткий вывод: если у вас уже есть routing на o3/o4-mini, обновлять обзор всё ещё имеет смысл. Если вы начинаете с нуля, сначала сравните их с GPT-5 и GPT-5 mini, а не считайте дефолтом автоматически.

1. Что это за модели и почему они всё ещё важны

o3 и o4-mini были важны по двум причинам:

  1. они закрепили саму идею reasoning-модели в OpenAI API;
  2. они добавили управляемый параметр reasoning_effort, который отделил «быстрый ответ» от «глубокого анализа».

По официальным материалам OpenAI:

  • o3 позиционировалась как флагман reasoning-линейки;
  • o4-mini — как более дешёвая reasoning-модель с очень сильным результатом за свои деньги;
  • обе модели умеют reasoning over images и work with tools.

На практике это означало: OpenAI перестала продавать reasoning как редкий эксперимент и превратила его в обычный продуктовый выбор внутри API.

2. Актуальные цифры по состоянию на 16 марта 2026

МодельContext windowMax outputЦена вход / выход за 1MCached input
o3200,000100,000$2.00 / $8.00$0.50
o4-mini200,000100,000$1.10 / $4.40$0.275

Это заметно отличается от старых таблиц и ранних обзоров, где можно встретить другие цены. Если вам нужен актуальный production-расчёт, ориентироваться стоит только на текущие official docs и pricing.

Output price: o3 vs o4-mini ($ за 1M токенов)
o4-mini4.4%
o38%
Input price: o3 vs o4-mini ($ за 1M токенов)
o4-mini1.1%
o32%

Практический вывод простой:

  • o4-mini — заметно рациональнее, если у вас чувствительный бюджет;
  • o3 имеет смысл там, где цена ошибки выше цены токенов.

3. Что реально умеет o3

o3 важна не просто как «дорогая модель OpenAI», а как reasoning-слой с высоким ceiling. На официальной странице OpenAI подчёркивает:

  • сильные результаты на coding и multimodal reasoning;
  • работу с изображениями как частью reasoning-процесса;
  • tool use внутри reasoning-сценариев;
  • позиционирование как high-end reasoning model.

Это делает o3 хорошей моделью для:

  • сложного debugging;
  • архитектурных решений;
  • code review, где ошибка дорогая;
  • аналитики, где нужно не просто извлечение фактов, а многошаговое рассуждение.
Если ваш запрос реально дорог по ошибке, o3 по-прежнему может быть оправдана даже после появления GPT-5. Здесь важно не «новее/старее», а сколько вам стоит неправильный вывод модели.

4. Что реально умеет o4-mini

o4-mini была ценна тем, что делала reasoning намного доступнее по цене. OpenAI отдельно выделяла её за сочетание:

  • низкой стоимости по сравнению с o3;
  • сильной работы на math/coding-heavy задачах;
  • поддержки tool use и image reasoning;
  • очень хорошего quality-per-dollar профиля.

В официальных материалах OpenAI для o4-mini есть особенно показательная цифра: 99.5% pass@1 на AIME 2025 при использовании Python. Это хороший пример того, что модель задумывалась не как «обрезанный o3», а как очень серьёзный STEM-инструмент.

Практически o4-mini была и остаётся полезной, если вам нужно:

  • reasoning в API, но не по цене o3;
  • старый routing, где уже отстроены latency и cost budgets;
  • миграционный benchmark против GPT-5 mini.

5. reasoning_effort: почему это ключевая фича

reasoning_effort — главная причина, по которой o3 и o4-mini до сих пор удобны как reference-модели.

УровеньЧто происходитКогда использовать
lowМинимум внутреннего анализаПростые reasoning-задачи, cost-sensitive traffic
mediumБаланс качества и ценыДефолт для большинства инженерных задач
highМаксимально глубокий анализHigh-stakes reasoning, сложный код, математика

Здесь важно понимать: reasoning-токены не бесплатны. Они входят в completion usage и делают итоговую стоимость существенно выше, если вы бездумно ставите high везде.

Без техники
{ "title": "Неправильный паттерн", "content": "Все запросы идут в o3 с reasoning_effort='high', даже если это простая классификация или короткий SQL-анализ." }
С техникой
{ "title": "Рациональный паттерн", "content": "Базовый поток идёт в более дешёвую модель или в low/medium effort, а high включается только там, где дорогая ошибка действительно оправдывает лишние токены и latency." }

6. Где o3/o4-mini проигрывают в 2026

Честный обзор должен включать и ограничения.

Это главный сдвиг. В 2026 году нельзя писать про o3 и o4-mini так, будто это единственный путь в OpenAI reasoning. Документация OpenAI уже сдвинула основной акцент на GPT-5 и GPT-5 mini.

У них не самый большой контекст в экосистеме OpenAI

200K — это много, но уже не выглядит рекордом на фоне более новых моделей и конкурентов с 1M.

Они не лучший выбор для каждого запроса

Если задача не требует глубокого reasoning, вы просто платите за неиспользованную глубину.

7. Когда использовать их сегодня

СценарийЧто делать
У вас уже есть production-routing на o3 / o4-miniНе мигрируйте вслепую. Сначала сравните на своих evals с GPT-5 / GPT-5 mini.
Вы строите новый продукт на OpenAIНачните сравнение с новой GPT-5-линейки, а o3/o4-mini оставьте как benchmark-кандидатов.
Вам нужен дорогой по ошибке reasoningТестируйте o3 против GPT-5 на вашем датасете.
Вам нужен дешёвый reasoning внутри OpenAIСравните o4-mini с GPT-5 mini по качеству, latency и цене.

Плюсы

  • `o3` остаётся сильной high-end reasoning-моделью
  • `o4-mini` даёт хороший reasoning profile за заметно меньшие деньги
  • `reasoning_effort` делает поведение моделей удобным для routing
  • Обе модели поддерживают tools и image reasoning
  • Хорошая reference-точка для миграций и A/B-тестов внутри OpenAI

Минусы

  • Обе модели уже marked as succeeded в official docs
  • Это не лучший default для новых проектов без дополнительного сравнения с GPT-5
  • `200K` контекста уже не выглядит уникальным
  • High effort легко раздувает стоимость и latency

Как я бы использовал их в 2026

Самый полезный паттерн сегодня — не жёстко выбрать одну модель, а оставить o3 и o4-mini как контролируемые ветки routing:

type OpenAiPolicy = {
  budgetSensitive: boolean
  errorCost: 'low' | 'medium' | 'high'
  alreadyOnLegacyORouting: boolean
}

export function pickOpenAiReasoningModel(policy: OpenAiPolicy) {
  if (policy.errorCost === 'high') {
    return 'o3'
  }

  if (policy.budgetSensitive || policy.alreadyOnLegacyORouting) {
    return 'o4-mini'
  }

  return 'gpt-5-mini'
}

Это уже не «историческая правда про модели», а прикладная инженерная эвристика.

Минимальные вызовы API

o3 через Responses API

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o3",
    input="Разбери причины деградации P95 latency после релиза.",
    reasoning={"effort": "high"},
)

print(response.output_text)

o4-mini через Responses API

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o4-mini",
    input="Оптимизируй SQL-запрос и объясни, почему именно так.",
    reasoning={"effort": "medium"},
)

print(response.output_text)

Tool use для reasoning-задач

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="o4-mini",
    reasoning={"effort": "medium"},
    tools=[
        {
            "type": "function",
            "name": "run_sql",
            "description": "Execute SQL on the analytics warehouse",
            "parameters": {
                "type": "object",
                "properties": {
                    "query": {"type": "string"}
                },
                "required": ["query"]
            }
        }
    ],
    input="Найди 5 клиентов с самым большим падением выручки за квартал и объясни возможные причины.",
)

print(response)

Практическое правило

ПромптOpenAI router
У нас есть code review, SQL-анализ, продуктовая аналитика и редкие high-stakes архитектурные решения. Как развести o3 и o4-mini?
Ответ модели
  1. Массовый reasoning-трафик и аналитика по умолчанию → o4-mini.
  2. Дорогие по ошибке архитектурные и debugging-кейсы → o3.
  3. Параллельно замерять те же сценарии на GPT-5 / GPT-5 mini, потому что o-линейка уже не current default в документации OpenAI.

Проверьте себя

Проверьте себя

1. Как официальный статус `o3` обозначен в developer docs OpenAI на 16 марта 2026?

2. В каком случае `o3` обычно рациональнее `o4-mini`?

3. Почему `reasoning_effort` важен для инженерного routing?

Связанные темы

Источники