Phi-4 (Microsoft)

Актуальный обзор Phi-4 на 19 марта 2026: Phi-4, Phi-4-mini, Phi-4-multimodal, reasoning-варианты, open-weight SLM, edge и Azure AI Foundry.

Старый обзор Phi-4 уже отстаёт, если описывать его только как одну компактную 14B-модель для математики. На 19 марта 2026 практичнее смотреть на Phi-4 как на целое семейство Microsoft: базовая Phi-4, компактная Phi-4-mini-instruct, мультимодальная Phi-4-multimodal-instruct и reasoning-ветка Phi-4-reasoning, Phi-4-reasoning-plus, Phi-4-mini-reasoning.

Главная сила Phi в 2026 не в том, что это «маленькая замена GPT», а в другом:

  • open-weight модели под MIT;
  • хороший профиль для self-hosting и edge;
  • сильный STEM/reasoning baseline при небольшом размере;
  • отдельная компактная мультимодальность без перехода на huge proprietary stack;
  • удобный мост между локальным запуском и Azure AI Foundry.
Phi-4 полезен там, где большая модель уже слишком дорогая или тяжёлая. Это семейство маленьких моделей Microsoft, которые можно запускать локально, встраивать в edge-сценарии и при этом получать неплохое качество на математике, коде, длинных текстовых задачах и даже мультимодальном вводе.
Официальная страница Microsoft для Phi уже описывает не одну модель, а family. Product page отдельно выделяет Phi-4, Phi-4-mini и Phi-4-multimodal, а Azure Blog позже добавляет reasoning-слой: Phi-4-reasoning, Phi-4-reasoning-plus и Phi-4-mini-reasoning.

Коротко

Что важноАктуальный ответ
Главная базовая модель семействаPhi-4
Самая практичная маленькая instruct-модельPhi-4-mini-instruct
Мультимодальная open-weight модельPhi-4-multimodal-instruct
Лучшая ветка для тяжёлой математики и reasoningPhi-4-reasoning / Phi-4-reasoning-plus
Самая лёгкая reasoning-модельPhi-4-mini-reasoning

Практические слои семейства Phi-4:

СлойЧто это такоеКогда нужен
Phi-4базовая 14B text model, 16KSTEM, код, локальный reasoning baseline
Phi-4-mini-instruct3.8B text model, 128Kдешёвый local assistant, multilingual, длинный контекст
Phi-4-multimodal-instruct5.6B multimodal model, 128Ktext + image + audio, OCR, speech, charts
Phi-4-reasoning / plus14B reasoning models, 32Kматематика, planning, harder reasoning
Phi-4-mini-reasoning3.8B compact reasoning model, 128Kedge reasoning, embedded tutoring, low-memory inference

Почему Phi-4 вообще стоит внимания:

  • почти всё важное в family доступно как open weights;
  • Microsoft держит сильную ставку на SLM, а не только на giant models;
  • у Phi-4-mini и multimodal уже есть длинный контекст 128K;
  • reasoning-ветка показывает, что маленькие модели можно заметно усилить посттренингом;
  • семейство хорошо ложится на локальный inference, ONNX и edge/NPU-сценарии.

1. Как сейчас устроено семейство Phi-4

Главная ошибка старого обзора была в том, что он сводил Phi-4 к одному флагману на 14B. На практике в 2026 лучше разделять семейство так:

МодельРазмерКонтекстПрактическая роль
Phi-414B16Kбазовый open-weight STEM/general reasoning baseline
Phi-4-mini-instruct3.8B128Kдлинный контекст, multilingual, малый inference cost
Phi-4-multimodal-instruct5.6B128Kimage + audio + text в одной open-weight модели
Phi-4-reasoning14B32Kусиленный reasoning на базе Phi-4
Phi-4-reasoning-plus14B32Kещё более агрессивный reasoning-профиль
Phi-4-mini-reasoning3.8B128Kкомпактный math-heavy reasoning для edge

2. Что особенно важно в каждом слое

Phi-4

По model card microsoft/phi-4 это 14B dense model с 16K контекстом и MIT лицензией. Microsoft прямо позиционирует её для memory/compute constrained environments, latency-bound scenarios и reasoning/logic задач.

Это уже не лучшая модель семейства «на всё подряд», но она остаётся удобной базой, если вам нужен:

  • небольшой open-weight reasoning/text baseline;
  • локальный запуск без гигантской инфраструктуры;
  • сильный STEM-профиль;
  • предсказуемый foundation для дальнейшего fine-tuning.

Phi-4-mini-instruct

Именно здесь семейство выглядит современнее старого обзора. Phi-4-mini-instruct даёт:

  • 3.8B параметров;
  • 128K контекста;
  • 200K vocabulary;
  • поддержку 23 языков в model card;
  • явный фокус на instruction following и function-calling format.

Практически это одна из самых интересных моделей Microsoft для дешёвого локального ассистента. Она слабее больших proprietary моделей, но для self-hosted workflows часто выглядит намного реалистичнее.

Phi-4-multimodal-instruct

Здесь Microsoft ушла дальше, чем старый текст про «маленькую математику». Phi-4-multimodal-instruct объединяет:

  • текст;
  • изображения;
  • аудио;
  • 128K контекста;
  • open-weight дистрибуцию;
  • OCR, chart/table understanding, speech tasks и multi-image use cases.

По product page Microsoft отдельно подчёркивает, что это первая модель семейства Phi с поддержкой text, audio, and vision inputs.

Если вам нужен маленький локальный voice/vision assistant, старый Phi-4 уже не главный кандидат внутри собственного семейства. Сначала смотрите на Phi-4-multimodal-instruct.

3. Reasoning-ветка: почему она теперь важнее старого базового обзора

В Azure Blog Microsoft отдельно объявила:

  • Phi-4-reasoning
  • Phi-4-reasoning-plus
  • Phi-4-mini-reasoning

Это не косметическое переименование. По официальному описанию:

  • Phi-4-reasoning строится на Phi-4 и дообучается на reasoning traces;
  • Phi-4-reasoning-plus идёт дальше и использует reinforcement learning, расходуя 1.5x больше токенов на reasoning, чем Phi-4-reasoning;
  • Phi-4-mini-reasoning переносит эту идею в компактный 3.8B класс.

По Microsoft Azure Blog reasoning-ветка обгоняет OpenAI o1-mini и DeepSeek-R1-Distill-Llama-70B на ряде reasoning-бенчмарков, а Phi-4-reasoning и Phi-4-reasoning-plus показывают очень сильный math/science профиль для модели такого размера.

Phi family: practical profile
Self-hosting suitability95%
Edge deployment potential94%
Reasoning per parameter91%
Multimodal compactness88%
Hosted product polish61%

4. Где Phi-4 реально выигрывает

Плюсы

  • Open-weight family под MIT сильно упрощает коммерческое использование и self-hosting
  • Есть понятная лестница от 3.8B до 14B без прыжка в giant-model infra
  • Phi-4-mini и Phi-4-multimodal дают 128K контекста в компактном классе
  • Reasoning-ветка делает семейство полезным не только для cheap inference, но и для hard math/planning
  • Microsoft явно развивает Phi под edge, ONNX, Copilot+ PC и Azure Foundry

Минусы

  • Базовая Phi-4 уже не выглядит единственным правильным выбором внутри собственной family
  • Текстовая multilingual-сила и общий product layer уступают лидерам вроде Qwen, Claude или GPT в hosted-сценариях
  • Контекст у базовой Phi-4 и reasoning-14B ветки всё ещё меньше, чем у многих современных API-моделей
  • Для polished tool ecosystem и agent platform Microsoft Phi-family сама по себе не заменяет крупный hosted stack

Выбирайте Phi-4, если вам нужно

  • self-hosted small model stack;
  • edge и offline inference;
  • дешёвый локальный STEM/coding baseline;
  • компактный мультимодальный open-weight слой;
  • reasoning на устройстве или в своей инфраструктуре.

Смотрите альтернативы, если вам нужно

  • максимально сильный hosted assistant без возни с инфрой;
  • giant context по умолчанию;
  • consumer-grade product layer уровня ChatGPT, Claude или Gemini;
  • strongest multilingual default для глобальных приложений.
ПромптPhi-4 family
Нам нужен локальный ассистент для инженеров: читать длинные инструкции, разбирать схемы и иногда решать математические задачи без отправки данных наружу. Что выбрать?
Ответ модели

Если приоритет — только текст и длинный контекст, начните с Phi-4-mini-instruct. Если нужно разбирать изображения, схемы или голос, смотрите на Phi-4-multimodal-instruct. Если важнее сложные математические шаги и reasoning depth, добавьте Phi-4-reasoning или Phi-4-mini-reasoning как отдельный escalation lane.

5. Для разработчика

Минимальный decision framework

Если вам нужноНачать с
Базовая маленькая text model MicrosoftPhi-4
Длинный контекст + малый размерPhi-4-mini-instruct
Text + image + audioPhi-4-multimodal-instruct
14B reasoningPhi-4-reasoning
Самый лёгкий reasoningPhi-4-mini-reasoning

Что помнить про deployment

  1. Не стройте новый выбор вокруг одной только Phi-4 14B: family уже шире и практичнее.
  2. Если нужен 128K, почти всегда смотрите сначала на mini или multimodal, а не на базовую Phi-4.
  3. Если нужен math-heavy reasoning, не останавливайтесь на base model: у Microsoft есть отдельная reasoning-линия.
  4. В Azure AI Foundry цена зависит от deployment-модели и региона, поэтому для статьи корректнее говорить не про один глобальный price tag, а про managed deployment pricing в Azure.

Быстрый старт через Transformers

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "microsoft/Phi-4-mini-instruct"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

messages = [
    {"role": "user", "content": "Сделай краткий разбор этого технического RFC и выдели риски."}
]

inputs = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))
  • SLM overview — маленькие модели для edge и локального inference
  • Qwen — open-weight multilingual альтернатива с более сильным глобальным стеком
  • DeepSeek-R1 — если нужен более громкий open reasoning reference

Проверьте себя

Проверьте себя

1. Что в 2026 точнее всего описывает `Phi-4`?

2. Какая модель семейства Phi-4 лучше подходит для text + image + audio?

3. Почему reasoning-ветка Phi-4 важна отдельно?