Zero-shot CoT — это самый лёгкий способ включить reasoning без примеров: вы просто просите модель рассуждать пошагово. Исторически это знаменитая техника уровня "Let's think step by step", но в 2026 её полезно воспринимать как cheap baseline, а не как магическую фразу, которая всегда делает ответ лучше.
Zero-shot CoT нужен, когда вы хотите быстро проверить: поможет ли задаче хотя бы минимальный reasoning-режим, не строя более сложный prompt.
fallback для задач, где direct answer слишком хрупок.
ПромптClaude Sonnet 4.6
Подумай пошагово и затем дай ответ отдельно.
На счёте 840 000 ₽. Компания тратит 210 000 ₽ в месяц и получает 90 000 ₽ дополнительного дохода ежемесячно. На сколько месяцев хватит денег?
Даже если в промпте нет примеров reasoning, модель всё равно знает паттерн пошаговых объяснений из обучающих данных. Zero-shot CoT просто активирует этот паттерн без additional demonstrations.
Именно поэтому техника так популярна:
проста;
дёшева;
не требует подготовки examples;
часто даёт заметный прирост по сравнению с direct answer.
На аккуратных логических задачах техника выглядит очень убедительно, но в production она часто сталкивается с ограничениями другого типа:
модели не хватает фактов, а не reasoning;
нужен retrieval, а не более длинный thought trace;
ответ упирается в tool call;
интерфейсу нужен короткий schema-output, а не развёрнутое объяснение.
Поэтому Zero-shot CoT полезно проверять на своём eval set, а не только на демонстрационных задачах. Иначе легко принять "ответ стал длиннее" за "ответ стал лучше".
Вместо буквального Let's think step by step сегодня часто лучше работают более прикладные фразы:
Разложи задачу на существенные шаги
Не пропускай вычисления
Сначала проверь условия, потом ответь
Если есть неопределённость, укажи её до финального ответа
Это всё тот же zero-shot reasoning trigger, но он лучше согласован с задачей и не тащит за собой культ одной магической фразы.
Хорошая проверка полезности Zero-shot CoT: сравнить direct answer и reasoning answer на одном и том же наборе задач. Если выигрыша почти нет, не держите дополнительный reasoning по умолчанию.
Не стоит думать, что одна фраза вроде "подумай пошагово" автоматически делает reasoning правильным. Она только повышает шанс на более структурированный вывод.
Ещё частые проблемы:
использовать zero-shot CoT на любом вопросе подряд;
не отделять final answer;
просить модель одновременно быть очень краткой и очень детально рассуждать;