Rephrase and Respond, или RaR, — это техника, где модель сначала коротко переформулирует задачу, а уже потом отвечает. В 2026 её полезно понимать как micro-clarification step: она не делает prompt умнее сама по себе, но снижает риск того, что модель ответит не на тот вопрос, неправильно поймёт intent или пропустит ограничение, спрятанное в формулировке.
Это не "перескажи вопрос ради красоты", а маленькая проверка понимания перед ответом.
Сначала коротко перефразируй задачу, чтобы убедиться, что ты понял её правильно. Потом ответь.
Вопрос: «Как нам сократить отток, не снижая цены и не нанимая новую команду поддержки?»
Ответ модели
Перефразировка: нужно снизить churn без ценовых скидок и без расширения support headcount.
Ответ: сначала ищите меры в onboarding, product education, self-serve support и proactive lifecycle communication.
RaR выглядит слишком простой, поэтому её легко недооценить. Но в реальных системах много ошибок происходит не на reasoning-слое, а раньше:
модель неверно поняла объект вопроса;
потеряла отрицание;
схлопнула два ограничения в одно;
ответила на "похожий" intent.
В таких сценариях даже сильная reasoning-модель может работать плохо, потому что решает уже неправильно сформулированную задачу. RaR полезен именно как дешёвый guardrail на уровне понимания входа.
Если задача может стоить дорого при неверной интерпретации, лучше делать visible rephrase. Если задача массовая и понятная, скрытый режим чаще удобнее.
У RaR есть важное ограничение: он не устраняет реальную неопределённость, а только помогает аккуратно интерпретировать уже имеющийся input. Поэтому технику не стоит путать с настоящим clarification flow.
Лучше задавать уточняющий вопрос, если:
у задачи несколько равноправных трактовок;
выбор трактовки меняет результат слишком сильно;
пользователь не дал ключевой параметр;
ответ без уточнения будет выглядеть уверенным, но произвольным.
Хорошее practical правило: если ambiguity можно снять одной короткой faithful rephrase, RaR уместен. Если ambiguity требует выбора между вариантами мира, нужен уже не paraphrase, а clarifying question.
Плохой вариант техники — позволить модели делать длинную свободную перефразировку. Тогда вместо micro-clarification вы получаете новый, менее точный prompt поверх старого.
def should_use_rar(message: str) -> bool:
signals = [
len(message) > 180,
"не" in message,
"без" in message,
message.count(",") >= 3,
"но" in message or "однако" in message,
]
return sum(bool(x) for x in signals) >= 2
Это не академическая логика, а практический фильтр: RaR особенно полезен на шумных human-written inputs, но не нужен на коротких и already structured запросах.