Claude в 2026 году уже не стоит описывать как абстрактное семейство Opus / Sonnet / Haiku без привязки к конкретным версиям. На 17 марта 2026 актуальная линейка Anthropic для большинства сценариев выглядит так: Claude Opus 4.6, Claude Sonnet 4.6 и Claude Haiku 4.5.
Главная практическая рамка простая. Sonnet 4.6 сейчас выглядит как основной everyday-default для большинства команд и одиночных пользователей, Opus 4.6 нужен для самых тяжёлых агентных и coding-задач, а Haiku 4.5 закрывает low-cost и low-latency сценарии. При этом Anthropic добавила важные штуки не только в качество модели, но и в operational layer: extended thinking, adaptive thinking, 1M context beta, prompt caching и batch pricing.
claude.ai или вызывать через API из кода. У Anthropic нет одной «универсально лучшей» модели: Sonnet обычно берут как рабочую лошадку, Opus — для самых сложных задач, Haiku — когда важны скорость и низкая стоимость.Opus 4.6, Sonnet 4.6 и Haiku 4.5, а старые обзоры про Opus 4 / Sonnet 4 / Haiku 3.5 уже быстро теряют точность. Отдельно важно, что Sonnet 4.6 указан как default model для Free и Pro на claude.ai, а Opus 4.6 и Sonnet 4.6 получили 1M token context window в beta.Anthropic в текущих docs разводит модели по очень понятным ролям:
Claude Opus 4.6 — strongest model для most complex tasks;Claude Sonnet 4.6 — balance of intelligence, speed and cost;Claude Haiku 4.5 — fastest and cheapest current option.Это лучше, чем старый язык про «Opus умный, Sonnet средний, Haiku быстрый», потому что теперь различие не только в качестве ответа, но и в операционной модели использования.
Claude Sonnet 4.6 первым. На Opus 4.6 переходят, когда уже видно, что Sonnet упирается в качество, planning depth или надёжность сложной агентной задачи.Anthropic теперь делает ставку не только на базовую модель, но и на режимы мышления.
| Модель | Базовый контекст | Расширенный контекст |
|---|---|---|
Opus 4.6 | 200K | до 1M в beta |
Sonnet 4.6 | 200K | до 1M в beta |
Haiku 4.5 | 200K | нет заявленного 1M beta |
Для большинства продуктовых систем 200K уже достаточно. Но 1M beta важен для длинных кодовых баз, юридических пакетов, research dumps и больших knowledge-workflows, где разбиение контекста само становится источником ошибок.
Anthropic docs разводят две вещи:
extended thinking — модель тратит дополнительные токены на размышление перед ответом;adaptive thinking — модель сама подстраивает глубину размышления под задачу.По текущей таблице моделей:
extended thinking есть у Opus 4.6, Sonnet 4.6 и Haiku 4.5;adaptive thinking есть у Opus 4.6 и Sonnet 4.6, но не у Haiku 4.5.Это важный operational shift. Старые статьи про Claude часто обсуждали только «умнее или быстрее», а в 2026 разница уже в том, насколько модель умеет сама регулировать reasoning budget.
Базовые цены на 17 марта 2026 такие:
| Модель | Input | Output | Prompt cache write | Prompt cache hit |
|---|---|---|---|---|
Claude Opus 4.6 | $5 / 1M | $25 / 1M | $6.25 / 1M | $0.50 / 1M |
Claude Sonnet 4.6 | $3 / 1M | $15 / 1M | $3.75 / 1M | $0.30 / 1M |
Claude Haiku 4.5 | $1 / 1M | $5 / 1M | $1.25 / 1M | $0.10 / 1M |
Anthropic также указывает Batch API со скидкой 50% от base rates. Это сразу делает Claude интереснее для offline-задач: ночные суммаризации, enrichment, миграции датасетов, массовое извлечение полей.
DeepSeek может быть дешевле;ChatGPT;Gemini 2.5 Flash.Это не делает Claude слабее. Просто в 2026 выбор модели уже определяется не «кто умнее вообще», а тем, как конкретный стек ведёт себя по цене, latency, tools и контексту.
У меня есть сервис на Python/FastAPI. Посмотри на этот обработчик, найди risk points и предложи production-safe rewrite:
@app.post('/users/search')
def search_users(q: str, limit: int = 1000):
sql = f"SELECT * FROM users WHERE name LIKE '%{q}%' LIMIT {limit}"
return db.execute(sql).fetchall()Здесь сразу несколько проблем: SQL injection через q, отсутствие валидации limit, SELECT *, отсутствие pagination и неявный формат ответа. Production-safe rewrite должен использовать параметризованный запрос, ограничение limit, явный список колонок и pagination. Для FastAPI также лучше вернуть Pydantic-модель и обработать пустой запрос отдельно.
| Модель | Рекомендуемый alias | Контекст | Макс. output |
|---|---|---|---|
Claude Opus 4.6 | claude-opus-4-6 | 200K, до 1M beta | 128K |
Claude Sonnet 4.6 | claude-sonnet-4-6 | 200K, до 1M beta | 64K |
Claude Haiku 4.5 | claude-haiku-4-5 | 200K | 64K |
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=1024,
messages=[
{
"role": "user",
"content": "Сделай code review этой Python-функции и укажи риски."
}
],
)
print(response.content[0].text)
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=4000,
thinking={
"type": "enabled",
"budget_tokens": 2000
},
messages=[
{
"role": "user",
"content": "Спроектируй migration plan для разделения монолита на 3 сервиса."
}
],
)
for block in response.content:
if block.type == "thinking":
print(block.thinking)
elif block.type == "text":
print(block.text)
manual thinking budget как deprecated для Claude Opus 4.6 и рекомендует там adaptive thinking. Для Sonnet 4.6 и Haiku 4.5 обычный thinking-budget всё ещё понятен и удобен как рабочая модель управления расходом.claude-sonnet-4-6. Если вам нужна полная воспроизводимость, берите точный snapshot из актуальной таблицы моделей Anthropic docs.Sonnet 4.6, а не с Opus 4.6, если не доказана необходимость флагмана.thinking только на задачах, где reasoning реально окупает стоимость.prompt caching.Batch API.