Старый обзор Phi-4 уже отстаёт, если описывать его только как одну компактную 14B-модель для математики. На 19 марта 2026 практичнее смотреть на Phi-4 как на целое семейство Microsoft: базовая Phi-4, компактная Phi-4-mini-instruct, мультимодальная Phi-4-multimodal-instruct и reasoning-ветка Phi-4-reasoning, Phi-4-reasoning-plus, Phi-4-mini-reasoning.
Главная сила Phi в 2026 не в том, что это «маленькая замена GPT», а в другом:
MIT;Phi-4, Phi-4-mini и Phi-4-multimodal, а Azure Blog позже добавляет reasoning-слой: Phi-4-reasoning, Phi-4-reasoning-plus и Phi-4-mini-reasoning.Phi-4Главная ошибка старого обзора была в том, что он сводил Phi-4 к одному флагману на 14B. На практике в 2026 лучше разделять семейство так:
| Модель | Размер | Контекст | Практическая роль |
|---|---|---|---|
Phi-4 | 14B | 16K | базовый open-weight STEM/general reasoning baseline |
Phi-4-mini-instruct | 3.8B | 128K | длинный контекст, multilingual, малый inference cost |
Phi-4-multimodal-instruct | 5.6B | 128K | image + audio + text в одной open-weight модели |
Phi-4-reasoning | 14B | 32K | усиленный reasoning на базе Phi-4 |
Phi-4-reasoning-plus | 14B | 32K | ещё более агрессивный reasoning-профиль |
Phi-4-mini-reasoning | 3.8B | 128K | компактный math-heavy reasoning для edge |
Phi-4По model card microsoft/phi-4 это 14B dense model с 16K контекстом и MIT лицензией. Microsoft прямо позиционирует её для memory/compute constrained environments, latency-bound scenarios и reasoning/logic задач.
Это уже не лучшая модель семейства «на всё подряд», но она остаётся удобной базой, если вам нужен:
Phi-4-mini-instructИменно здесь семейство выглядит современнее старого обзора. Phi-4-mini-instruct даёт:
3.8B параметров;128K контекста;200K vocabulary;23 языков в model card;Практически это одна из самых интересных моделей Microsoft для дешёвого локального ассистента. Она слабее больших proprietary моделей, но для self-hosted workflows часто выглядит намного реалистичнее.
Phi-4-multimodal-instructЗдесь Microsoft ушла дальше, чем старый текст про «маленькую математику». Phi-4-multimodal-instruct объединяет:
128K контекста;По product page Microsoft отдельно подчёркивает, что это первая модель семейства Phi с поддержкой text, audio, and vision inputs.
Phi-4 уже не главный кандидат внутри собственного семейства. Сначала смотрите на Phi-4-multimodal-instruct.В Azure Blog Microsoft отдельно объявила:
Phi-4-reasoningPhi-4-reasoning-plusPhi-4-mini-reasoningЭто не косметическое переименование. По официальному описанию:
Phi-4-reasoning строится на Phi-4 и дообучается на reasoning traces;Phi-4-reasoning-plus идёт дальше и использует reinforcement learning, расходуя 1.5x больше токенов на reasoning, чем Phi-4-reasoning;Phi-4-mini-reasoning переносит эту идею в компактный 3.8B класс.По Microsoft Azure Blog reasoning-ветка обгоняет OpenAI o1-mini и DeepSeek-R1-Distill-Llama-70B на ряде reasoning-бенчмарков, а Phi-4-reasoning и Phi-4-reasoning-plus показывают очень сильный math/science профиль для модели такого размера.
Phi-4 реально выигрываетPhi-4, если вам нужноChatGPT, Claude или Gemini;Нам нужен локальный ассистент для инженеров: читать длинные инструкции, разбирать схемы и иногда решать математические задачи без отправки данных наружу. Что выбрать?
Если приоритет — только текст и длинный контекст, начните с Phi-4-mini-instruct. Если нужно разбирать изображения, схемы или голос, смотрите на Phi-4-multimodal-instruct. Если важнее сложные математические шаги и reasoning depth, добавьте Phi-4-reasoning или Phi-4-mini-reasoning как отдельный escalation lane.
| Если вам нужно | Начать с |
|---|---|
| Базовая маленькая text model Microsoft | Phi-4 |
| Длинный контекст + малый размер | Phi-4-mini-instruct |
| Text + image + audio | Phi-4-multimodal-instruct |
| 14B reasoning | Phi-4-reasoning |
| Самый лёгкий reasoning | Phi-4-mini-reasoning |
Phi-4 14B: family уже шире и практичнее.128K, почти всегда смотрите сначала на mini или multimodal, а не на базовую Phi-4.from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "microsoft/Phi-4-mini-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
messages = [
{"role": "user", "content": "Сделай краткий разбор этого технического RFC и выдели риски."}
]
inputs = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))
1. Что в 2026 точнее всего описывает `Phi-4`?
2. Какая модель семейства Phi-4 лучше подходит для text + image + audio?
3. Почему reasoning-ветка Phi-4 важна отдельно?