RAPTOR меняет саму структуру retrieval-корпуса. Вместо набора независимых chunks система строит дерево: нижний уровень хранит исходные фрагменты, а верхние уровни содержат их рекурсивные summaries. Благодаря этому retrieval может срабатывать не только по локальным кускам текста, но и по более общим представлениям длинного документа.

В 2026 это особенно полезно для длинных документов, policy packs, технических wiki и больших отчётов. Обычный chunk-based RAG там часто промахивается: локальный фрагмент найден, а общий смысл раздела нет.

Техника помогает retrieval работать на нескольких уровнях абстракции сразу: от исходного абзаца до summary целого раздела или документа.

Коротко

RAPTOR полезен, когда:

  • документы длинные;
  • вопрос требует не только локального факта, но и общего контекста;
  • plain chunk retrieval даёт фрагменты без целостной картины;
  • нужна многоуровневая навигация по knowledge base.
ПромптGPT-5
Используй retrieval по нескольким уровням документа: сначала summary-узлы, затем исходные chunks, если нужен локальный факт.

Вопрос: какие общие темы проходят через весь отчёт и какие разделы их подтверждают?
Ответ модели

Система сначала нашла summary-узлы по верхнему уровню дерева, выделила общие темы, а затем спустилась к leaf chunks, чтобы подтвердить их конкретными фрагментами.

RAPTOR нужен тогда, когда retrieval должен видеть и лес, и деревья.

Чем RAPTOR отличается от обычного chunking

В plain RAG документ обычно режется на одинаковые chunks, и retrieval ищет только среди них. Это работает для локальных фактов, но плохо отвечает на глобальные вопросы.

RAPTOR строит более богатый индекс:

  • leaf nodes с исходными chunks;
  • intermediate summaries;
  • верхнеуровневые summaries для групп разделов.

Поэтому система может сначала найти правильную область смысла, а потом уточнить детали ниже по дереву.

Плоский chunk retrieval
Система ищет только по локальным фрагментам и может не схватить общую структуру длинного документа.
RAPTOR
Система ищет по дереву абстракций: summary-узлы помогают найти нужный раздел, а leaf chunks подтверждают детали.

Когда техника особенно полезна

RAPTOR хорошо подходит для:

  • длинных PDF и technical reports;
  • regulatory и compliance документации;
  • due diligence corpora;
  • больших knowledge bases;
  • question answering, где нужны и overview, и evidence.

Если corpus состоит из коротких независимых заметок, выгода будет меньше.

Ограничения

RAPTOR требует preprocessing и более дорогого индекса:

  • нужно строить summaries;
  • нужно обновлять дерево при изменении корпуса;
  • есть риск summary drift, если абстракции неточно отражают низовые chunks.

То есть техника особенно оправдана на тяжёлых knowledge corpora, а не в маленьких FAQ.

Почему техника актуальна в 2026

Контекстные окна растут, но проблема не исчезает: найти правильный кусок длинного документа всё ещё трудно. RAPTOR важен тем, что делает retrieval структурным, а не просто более длинным.

Это полезно там, где пользователи задают и локальные, и глобальные вопросы к одному и тому же корпусу.

Техническая реализация

type TreeNode = {
  id: string
  summary: string
  children?: string[]
  embedding: number[]
}

Практический совет: держите links от summary node к leaf chunks. Иначе верхнеуровневый retrieval будет трудно превращать в цитируемый grounded answer.

Проверьте себя

1. Что отличает RAPTOR от обычного chunk retrieval?

2. Когда RAPTOR особенно полезен?

3. Главный минус RAPTOR?