Старый обзор DeepSeek-R1 уже ломается, если подавать модель как current API-продукт DeepSeek. На 20 марта 2026 правильнее другая рамка: DeepSeek-R1 остаётся одним из главных open-weight reasoning releases, но current managed alias deepseek-reasoner в official docs уже относится к current thinking lane DeepSeek и давно не равен “просто облачному R1”.
Именно поэтому в 2026 DeepSeek-R1 важен прежде всего в трёх ролях:
1.5B-70B;DeepSeek-R1 важен не только потому, что это “умная модель”. Главное в том, что это одна из первых really strong reasoning-моделей с открытыми весами: её можно изучать, запускать локально и использовать как основу для меньших distill-версий.deepseek-reasoner вызывает DeepSeek-R1. Но current changelog уже фиксирует другой статус: deepseek-reasoner теперь относится к current DeepSeek thinking line, а не к исходному frozen R1 release. Это не уменьшает значение R1, но меняет правильную product framing статьи.DeepSeek-R1В 2026 полезно разделять четыре слоя, которые старые статьи часто смешивали:
DeepSeek-R1 как open-weight reasoning model;DeepSeek-R1-0528 как более поздний reasoning refresh;R1-Distill как practical deployable line;deepseek-reasoner как managed API alias.Это не формальность. Если всё смешать в одну сущность, статья начинает одновременно говорить про:
А это уже разные инженерные объекты.
DeepSeek-R1По official Hugging Face card:
671B total params;37B activated params;128K context;DeepSeek-V3-Base.На уровне open ecosystem это остаётся одной из самых заметных reasoning-моделей вообще. На релизе DeepSeek отдельно подчёркивал:
OpenAI-o1;MIT licensing;DeepSeek-R1 стала proof point, что reasoning-heavy behavior можно получить не только у закрытых frontier vendors. В 2026 её ценность уже не только в raw score, а в том, что она стала базой для всей open reasoning lineage.
Для большинства инженерных команд именно здесь DeepSeek-R1 наиболее полезен.
По official HF card DeepSeek выпустил шесть dense distill-чекпойнтов:
| Модель | База |
|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | Qwen2.5-Math-1.5B |
DeepSeek-R1-Distill-Qwen-7B | Qwen2.5-Math-7B |
DeepSeek-R1-Distill-Llama-8B | Llama-3.1-8B |
DeepSeek-R1-Distill-Qwen-14B | Qwen2.5-14B |
DeepSeek-R1-Distill-Qwen-32B | Qwen2.5-32B |
DeepSeek-R1-Distill-Llama-70B | Llama-3.3-70B-Instruct |
Это и есть главная operational story вокруг R1:
DeepSeek-R1, а на Distill-Qwen-14B, Distill-Qwen-32B или Distill-Llama-70B. Именно там для большинства команд больше всего реальной operational value.По official Hugging Face card full DeepSeek-R1 показывал сильные релизные результаты:
AIME 2024 pass@1: 79.8MATH-500 pass@1: 97.3GPQA Diamond pass@1: 71.5LiveCodeBench pass@1-COT: 65.9SWE-bench Verified: 49.2Для distilled line card отдельно показывает:
Distill-Qwen-32B особенно силён среди compact dense-вариантов;Distill-Llama-70B на части evals даже сильнее;7B/14B выглядят unusually useful для локального reasoning.Но в 2026 эти цифры уже нельзя читать как “текущий лучший reasoning API”. Корректнее читать их так:
Это главный апдейт по сравнению со старым материалом.
На релизе 20 января 2025 DeepSeek писал, что deepseek-reasoner — это новый DeepSeek-R1.
В changelog 28 мая 2025 DeepSeek уже зафиксировал апгрейд deepseek-reasoner до DeepSeek-R1-0528.
Current changelog описывает уже следующую product evolution:
deepseek-reasoner перешёл на DeepSeek-V3.1 thinking mode;DeepSeek-V3.2-Exp;DeepSeek-V3.2 thinking mode.Практический вывод:
deepseek-reasoner уже не тождественен original DeepSeek-R1;R1;R1 надо обсуждать как open-weight release, а deepseek-reasoner — как current managed product lane.DeepSeek-R1, а когда нетDeepSeek-R1, если вам нужноdeepseek-chat / deepseek-reasoner routing;Для этого лучше смотреть DeepSeek, DeepSeek V3 и QwQ vs DeepSeek-R1 vs o3.