IRCoT — это паттерн, где retrieval не ограничивается прологом к ответу. Вместо схемы "сначала подтащи документы, потом думай" модель чередует reasoning и retrieval прямо по ходу решения. Она делает шаг мысли, понимает, чего не хватает, достаёт ещё контекст, и только потом движется дальше.
В 2026 это одна из самых полезных техник для knowledge-intensive multi-hop QA. Если question decomposes into several factual bridges, одноразовый retrieval часто недотягивает. IRCoT позволяет искать не весь answer заранее, а только следующий недостающий кусок.
Обычный RAG часто работает так:
Проблема в том, что для multi-step knowledge questions это часто не так. Первый retrieval может дать только часть графа фактов. IRCoT исправляет именно это: retrieval становится adaptive.
Модель не пытается найти всё сразу. Она ищет ровно тот factual bridge, который нужен на текущем шаге reasoning.
RAT и RwR тоже чередуют retrieval с reasoning, но IRCoT особенно фокусируется на multi-step question answering, где retrieval literally interleaves with CoT over several hops.
Практически это означает:
IRCoT отлично подходит для:
Она слабее там, где вопрос можно закрыть одним точным retrieval hit.
IRCoT дороже обычного RAG:
Кроме того, если модель плохо формулирует next-hop queries, качество retrieval будет плавать. То есть техника требует хорошей query generation discipline.
Сейчас многие RAG-системы уже понимают, что "больше top-k" не равно "лучше reasoning". IRCoT важен как следующий шаг: retrieval должен жить внутри reasoning, а не только перед ним.
Это делает технику особенно полезной для систем, где knowledge graph пользователя скрыт в разрозненных документах, отчётах, wiki и внешних источниках.