Старый обзор DeepSeek V3 уже неточен, если описывать его как одну статичную open-source модель с парой сравнений против Llama 4. На 19 марта 2026 правильнее смотреть на V3 как на целую эволюционную линию:
DeepSeek-V3;DeepSeek-V3-0324;DeepSeek-V3.1;DeepSeek-V3.2 и V3.2-Speciale.Именно эта линия сейчас определяет, что такое deepseek-chat и deepseek-reasoner в API, как DeepSeek пришёл к hybrid thinking/non-thinking architecture и почему current API уже нельзя объяснять через старую рамку «V3 = general, R1 = reasoning» без оговорок.
deepseek-chat и deepseek-reasoner соответствуют DeepSeek-V3.2 с 128K контекстом. То есть current API уже живёт не на старом V3 или R1 как отдельных product-слоях, а на одной более новой V3.2-линии с non-thinking и thinking режимами.DeepSeek V3Старый обзор слишком жёстко привязывал всё к original DeepSeek-V3 декабря 2024. Но practical framing в 2026 другая: V3 важен прежде всего как backbone line, из которой вырос current DeepSeek API.
Для практики полезнее делить так:
DeepSeek-V3 как архитектурный и research baseline;V3-0324 как сильный post-training refresh;V3.1 как переход к hybrid reasoning;V3.2 как current product line;V3.2-Speciale как более тяжёлый reasoning-first variant.DeepSeek-V3: почему релиз был важенПо official repo и launch post DeepSeek-V3 дал:
671B total params;37B activated params;128K context;14.8T training tokens;2.788M H800 GPU hours total training budget.Официальный репозиторий отдельно подчёркивает несколько ключевых технических идей:
Multi-head Latent Attention (MLA);Multi-Token Prediction (MTP);FP8 training.Это был не просто ещё один большой open model release. Это был один из сильнейших сигналов, что MoE + efficient training stack могут дать frontier-adjacent результаты без гипермасштабного бюджета big tech.
DeepSeek прямо пишет, что для efficient inference и cost-effective training линия использует MLA и DeepSeekMoE. Практически это означает, что модель проектировалась не только под benchmark score, но и под реальную экономику инференса.
В official repo это вынесено как один из центральных technical claims. Для MoE-систем это важно, потому что load balancing обычно портит качество; DeepSeek сделал это частью своей отличительной engineering-story.
Репозиторий отдельно отмечает multi-token prediction objective. Для статьи это важно не как academic trivia, а как часть общего narrative: V3-line строилась не только на raw size, но и на inference-aware optimization.
V3-0324: почему это был реальный скачокЭта версия важнее, чем выглядела в старых обзорах.
По official DeepSeek-V3-0324 release:
MMLU-Pro: 75.9 -> 81.2GPQA: 59.1 -> 68.4AIME: 39.6 -> 59.4LiveCodeBench: 39.2 -> 49.2Кроме бенчмарков DeepSeek отдельно выделяет:
Это важно, потому что V3-0324 показывает: DeepSeek наращивал линию не только через research benchmarks, но и через product-facing capabilities.
V3 интересен как architecture release, то V3-0324 уже выглядит как шаг от сильной открытой модели к реально более usable production model.V3.1 и V3.2: переход к hybrid reasoningЗдесь старая статья устарела сильнее всего.
V3.1По official changelog:
deepseek-chat и deepseek-reasoner были upgraded to DeepSeek-V3.1;deepseek-chat corresponded to non-thinking mode;deepseek-reasoner corresponded to thinking mode;Это уже меняет product logic DeepSeek: reasoning становится не «отдельной research-моделью», а режимом внутри общей линии.
V3.2-ExpOfficial release подаёт V3.2-Exp как experimental step в этой же линии. Она важна как переходный слой к более зрелому V3.2.
V3.2По official DeepSeek-V3.2 Release:
V3.2 is the official successor to V3.2-Exp;App, Web & API;V3.2 позиционируется как reasoning-first model built for agents;Это намного сильнее, чем старый текст про «general model V3 против reasoning model R1». В current framing DeepSeek уже строит unified agent/reasoning stack внутри V3-линии.
Это главный practical takeaway статьи.
Current pricing page прямо говорит:
deepseek-chat = DeepSeek-V3.2 (Non-thinking Mode)deepseek-reasoner = DeepSeek-V3.2 (Thinking Mode)128K context limit у обеих8K max output у deepseek-chat64K max output у deepseek-reasoner$0.028 / 1M$0.28 / 1M$0.42 / 1MЭто означает:
deepseek-chat уже нельзя объяснять как «старый V3 API alias»;deepseek-reasoner уже нельзя объяснять как «просто R1 в облаке»;V3.2 линии.Здесь старый текст тоже был слишком грубым.
Для original DeepSeek-V3 official GitHub repo указывает:
MITModel AgreementДля DeepSeek-V3-0324 Hugging Face repo уже указывает MIT.
Практический вывод: для V3-family нельзя механически писать одну фразу «всё MIT» без уточнения checkpoint. Если проект enterprise-grade, проверяйте лицензию именно того релиза, который реально разворачиваете.
DeepSeek V3, а когда нетНам нужен дешёвый hosted model layer для agent workflows с tool use. С чего начинать у DeepSeek?
В current DeepSeek framing начинать стоит с deepseek-chat, а deepseek-reasoner включать как escalation lane для more expensive thinking. Важно, что оба режима уже относятся к DeepSeek-V3.2, а не к двум полностью разным продуктовым семьям.
| Если вам нужно | Начать с |
|---|---|
| Понять architecture baseline | DeepSeek-V3 |
| Посмотреть сильный mid-cycle improvement | DeepSeek-V3-0324 |
| Понять hybrid reasoning turn | DeepSeek-V3.1 |
| Работать с current production API | DeepSeek-V3.2 через deepseek-chat / deepseek-reasoner |
| Maxed-out reasoning-first variant | DeepSeek-V3.2-Speciale как reference, если доступен |
DeepSeek-V3 с current deepseek-chat.V3 vs R1 на current API без оговорок.DeepSeek-V3.from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "user", "content": "Сделай краткий architecture review этого backend design."}
]
)
print(response.choices[0].message.content)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[
{"role": "user", "content": "Разбери алгоритмические trade-offs этой migration strategy."}
]
)
print(response.choices[0].message.content)
Для original DeepSeek-V3 repo рекомендует экосистему вроде SGLang, LMDeploy, TensorRT-LLM, vLLM и LightLLM, включая FP8/BF16 deployment.
1. Что сейчас точнее всего описывает `deepseek-chat`?
2. Почему старая статья про V3 быстро устаревает?
3. Какой licensing-нюанс важен для V3-family?