DeepSeek V3

Актуальный обзор DeepSeek V3 на 19 марта 2026: V3, V3-0324, V3.1, V3.2, 671B MoE, MLA, current deepseek-chat API и эволюция к reasoning-first agents.

Старый обзор DeepSeek V3 уже неточен, если описывать его как одну статичную open-source модель с парой сравнений против Llama 4. На 19 марта 2026 правильнее смотреть на V3 как на целую эволюционную линию:

  • original DeepSeek-V3;
  • DeepSeek-V3-0324;
  • DeepSeek-V3.1;
  • DeepSeek-V3.2 и V3.2-Speciale.

Именно эта линия сейчас определяет, что такое deepseek-chat и deepseek-reasoner в API, как DeepSeek пришёл к hybrid thinking/non-thinking architecture и почему current API уже нельзя объяснять через старую рамку «V3 = general, R1 = reasoning» без оговорок.

DeepSeek V3 важен не только как большая открытая модель. Это основа всей современной product-линейки DeepSeek: быстрый чат-режим, thinking-режим, tool use и reasoning-first agent workflows выросли именно из V3-линии.
Current official pricing page прямо пишет: deepseek-chat и deepseek-reasoner соответствуют DeepSeek-V3.2 с 128K контекстом. То есть current API уже живёт не на старом V3 или R1 как отдельных product-слоях, а на одной более новой V3.2-линии с non-thinking и thinking режимами.

Коротко

Что важноАктуальный ответ
Что такое DeepSeek V3 в 2026не одна модель, а основная линия, которая дошла до V3.2
Original architecture671B total, 37B activated, 128K, MoE + MLA
Current API layerdeepseek-chat и deepseek-reasoner = DeepSeek-V3.2
Что особенно выделяет линиюlow-cost inference, hybrid reasoning, tool use, agent focus
Где practical valuecurrent managed API, self-hosting старых V3-family checkpoints, infra/economics case study

Эволюция V3-линии:

ЭтапЧто изменилось
DeepSeek-V3strong MoE base, MLA, auxiliary-loss-free balancing, MTP
V3-0324заметный post-training jump, лучше reasoning, code, function calling
V3.1hybrid thinking/non-thinking architecture
V3.2-Expexperimental step toward reasoning-first agents
V3.2current production line in API, tool use в thinking и non-thinking modes

Почему V3-линия важна:

  • она объясняет current DeepSeek API лучше, чем старое деление V3 vs R1;
  • original V3 стал одним из самых заметных MoE-релизов open ecosystem;
  • V3-line показывает, как general model превращается в agent/reasoning product layer;
  • economics DeepSeek остаются unusually aggressive даже на current API.

1. Как сейчас правильно понимать DeepSeek V3

Старый обзор слишком жёстко привязывал всё к original DeepSeek-V3 декабря 2024. Но practical framing в 2026 другая: V3 важен прежде всего как backbone line, из которой вырос current DeepSeek API.

Для практики полезнее делить так:

  • original DeepSeek-V3 как архитектурный и research baseline;
  • V3-0324 как сильный post-training refresh;
  • V3.1 как переход к hybrid reasoning;
  • V3.2 как current product line;
  • V3.2-Speciale как более тяжёлый reasoning-first variant.

2. Original DeepSeek-V3: почему релиз был важен

По official repo и launch post DeepSeek-V3 дал:

  • 671B total params;
  • 37B activated params;
  • 128K context;
  • 14.8T training tokens;
  • 2.788M H800 GPU hours total training budget.

Официальный репозиторий отдельно подчёркивает несколько ключевых технических идей:

  • Multi-head Latent Attention (MLA);
  • auxiliary-loss-free strategy for load balancing;
  • Multi-Token Prediction (MTP);
  • large-scale FP8 training.

Это был не просто ещё один большой open model release. Это был один из сильнейших сигналов, что MoE + efficient training stack могут дать frontier-adjacent результаты без гипермасштабного бюджета big tech.

Что особенно важно из архитектуры

MLA

DeepSeek прямо пишет, что для efficient inference и cost-effective training линия использует MLA и DeepSeekMoE. Практически это означает, что модель проектировалась не только под benchmark score, но и под реальную экономику инференса.

Auxiliary-loss-free balancing

В official repo это вынесено как один из центральных technical claims. Для MoE-систем это важно, потому что load balancing обычно портит качество; DeepSeek сделал это частью своей отличительной engineering-story.

MTP

Репозиторий отдельно отмечает multi-token prediction objective. Для статьи это важно не как academic trivia, а как часть общего narrative: V3-line строилась не только на raw size, но и на inference-aware optimization.

DeepSeek V3 line: practical profile
API economics96%
Architecture significance94%
Agent evolution91%
Open infra relevance90%
Consumer product framing63%

3. V3-0324: почему это был реальный скачок

Эта версия важнее, чем выглядела в старых обзорах.

По official DeepSeek-V3-0324 release:

  • MMLU-Pro: 75.9 -> 81.2
  • GPQA: 59.1 -> 68.4
  • AIME: 39.6 -> 59.4
  • LiveCodeBench: 39.2 -> 49.2

Кроме бенчмарков DeepSeek отдельно выделяет:

  • improved front-end web development;
  • improved Chinese writing;
  • improved search/report behavior;
  • improved function calling.

Это важно, потому что V3-0324 показывает: DeepSeek наращивал линию не только через research benchmarks, но и через product-facing capabilities.

Если original V3 интересен как architecture release, то V3-0324 уже выглядит как шаг от сильной открытой модели к реально более usable production model.

4. V3.1 и V3.2: переход к hybrid reasoning

Здесь старая статья устарела сильнее всего.

V3.1

По official changelog:

  • deepseek-chat и deepseek-reasoner были upgraded to DeepSeek-V3.1;
  • deepseek-chat corresponded to non-thinking mode;
  • deepseek-reasoner corresponded to thinking mode;
  • ключевой claim: hybrid reasoning architecture внутри одной модели.

Это уже меняет product logic DeepSeek: reasoning становится не «отдельной research-моделью», а режимом внутри общей линии.

V3.2-Exp

Official release подаёт V3.2-Exp как experimental step в этой же линии. Она важна как переходный слой к более зрелому V3.2.

V3.2

По official DeepSeek-V3.2 Release:

  • V3.2 is the official successor to V3.2-Exp;
  • модель уже live on App, Web & API;
  • V3.2 позиционируется как reasoning-first model built for agents;
  • это первая модель DeepSeek, где thinking directly integrated into tool use;
  • tool use поддерживается и в thinking, и в non-thinking modes.

Это намного сильнее, чем старый текст про «general model V3 против reasoning model R1». В current framing DeepSeek уже строит unified agent/reasoning stack внутри V3-линии.

5. Что current API actually означает

Это главный practical takeaway статьи.

Current pricing page прямо говорит:

  • deepseek-chat = DeepSeek-V3.2 (Non-thinking Mode)
  • deepseek-reasoner = DeepSeek-V3.2 (Thinking Mode)
  • 128K context limit у обеих
  • 8K max output у deepseek-chat
  • 64K max output у deepseek-reasoner
  • current pricing одинакова для обеих по token table:
    • cache hit input: $0.028 / 1M
    • cache miss input: $0.28 / 1M
    • output: $0.42 / 1M

Это означает:

  • current deepseek-chat уже нельзя объяснять как «старый V3 API alias»;
  • current deepseek-reasoner уже нельзя объяснять как «просто R1 в облаке»;
  • и оба current product aliases лучше читать как две operational lanes одной V3.2 линии.

Плюсы

  • DeepSeek V3 line очень хорошо объясняет current product/API behavior
  • Original V3 остаётся одним из самых интересных MoE releases последних лет
  • Current V3.2 строит agentic stack, а не только обычный чат
  • Pricing current API остаётся unusually low even после evolution к V3.2

Минусы

  • Старые обзоры легко путают original V3, V3-0324, V3.1, V3.2 и R1
  • Original repo и более поздние checkpoints не всегда имеют одинаковую licensing framing
  • Если нужен максимально простой global enterprise procurement layer, DeepSeek всё ещё сложнее крупных западных vendors

6. Лицензии и self-hosting: важный нюанс

Здесь старый текст тоже был слишком грубым.

Для original DeepSeek-V3 official GitHub repo указывает:

  • code license: MIT
  • model license: Model Agreement
  • commercial use supported

Для DeepSeek-V3-0324 Hugging Face repo уже указывает MIT.

Практический вывод: для V3-family нельзя механически писать одну фразу «всё MIT» без уточнения checkpoint. Если проект enterprise-grade, проверяйте лицензию именно того релиза, который реально разворачиваете.

7. Когда выбирать DeepSeek V3, а когда нет

Выбирайте V3-line, если вам нужно

  • очень дешёвый current managed API;
  • strong general-purpose base with optional thinking;
  • reasoning + tool use в одной семейной линии;
  • изучать современную MoE/MLA-economics архитектуру;
  • строить cost-sensitive agent stack.

Смотрите альтернативы, если вам нужно

  • максимально простая enterprise/legal path;
  • strongest global multilingual polish by default;
  • consumer-first product layer без оглядки на vendor-specific operational nuances.
ПромптDeepSeek V3 line
Нам нужен дешёвый hosted model layer для agent workflows с tool use. С чего начинать у DeepSeek?
Ответ модели

В current DeepSeek framing начинать стоит с deepseek-chat, а deepseek-reasoner включать как escalation lane для more expensive thinking. Важно, что оба режима уже относятся к DeepSeek-V3.2, а не к двум полностью разным продуктовым семьям.

8. Для разработчика

Минимальный decision framework

Если вам нужноНачать с
Понять architecture baselineDeepSeek-V3
Посмотреть сильный mid-cycle improvementDeepSeek-V3-0324
Понять hybrid reasoning turnDeepSeek-V3.1
Работать с current production APIDeepSeek-V3.2 через deepseek-chat / deepseek-reasoner
Maxed-out reasoning-first variantDeepSeek-V3.2-Speciale как reference, если доступен

Что помнить

  1. Не смешивайте original DeepSeek-V3 с current deepseek-chat.
  2. Не переносите старые сравнения V3 vs R1 на current API без оговорок.
  3. Для pricing current API ориентируйтесь на official pricing page, а не на старые статьи или provider mirrors.
  4. Для self-hosting V3-family проверяйте licensing конкретного checkpoint, а не только бренда DeepSeek-V3.

Current API quick start

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_DEEPSEEK_API_KEY",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "user", "content": "Сделай краткий architecture review этого backend design."}
    ]
)

print(response.choices[0].message.content)

Thinking lane

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_DEEPSEEK_API_KEY",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[
        {"role": "user", "content": "Разбери алгоритмические trade-offs этой migration strategy."}
    ]
)

print(response.choices[0].message.content)

Если нужен старый V3-family checkpoint локально

Для original DeepSeek-V3 repo рекомендует экосистему вроде SGLang, LMDeploy, TensorRT-LLM, vLLM и LightLLM, включая FP8/BF16 deployment.

Проверьте себя

Проверьте себя

1. Что сейчас точнее всего описывает `deepseek-chat`?

2. Почему старая статья про V3 быстро устаревает?

3. Какой licensing-нюанс важен для V3-family?