GRF, или Generative Relevance Feedback, развивает старую идею relevance feedback в духе LLM. Вместо того чтобы расширять запрос только терминами из top-k результатов первого поиска, система генерирует дополнительный feedback text сама. Это важно, потому что classical PRF часто ломается именно тогда, когда initial retrieval слабый или шумный.

В 2026 GRF особенно полезен для retrieval stacks, где first-pass search нестабилен. Техника позволяет строить richer feedback representation, не полагаясь полностью на already retrieved documents.

GRF снижает зависимость от первого retrieval hit: feedback можно сгенерировать даже тогда, когда initial top-k не слишком хорош.

Коротко

GRF полезен, когда:

  • классический pseudo-relevance feedback шумит;
  • первый retrieval слабый;
  • query нужно расширять richer text, а не только keywords;
  • хочется улучшить recall before reranking.
ПромптGPT-5
Сгенерируй relevance feedback text для поискового запроса: добавь возможные сущности, факты и формулировки, которые помогут retrieval, но не выдавай финальный ответ.
Ответ модели

Система сгенерировала несколько фактических и тематических подсказок, благодаря которым второй retrieval pass нашёл более релевантные документы.

Это техника про smarter feedback before retrieval refinement.

Чем GRF отличается от classical PRF

Classical PRF строится так:

  • взять top-k первого прохода;
  • вытащить из них термины;
  • расширить query.

GRF делает иначе:

  • LLM генерирует feedback text;
  • feedback может включать факты, сущности и document-like hints;
  • retrieval refinement уже опирается на richer generated context.

Так система не так сильно зависит от качества первого набора документов.

Classical PRF
Query expansion зависит от качества initial top-k, и плохой первый retrieval тянет feedback не туда.
GRF
LLM генерирует richer relevance feedback text, уменьшая зависимость от noisy first-pass retrieval.

Когда техника особенно полезна

GRF хорошо подходит для:

  • document retrieval;
  • hybrid search;
  • large corpora с vocabulary mismatch;
  • systems, где first-pass retrieval нестабилен;
  • cases, где query слишком короткий или бедный.

Если first-pass retrieval already excellent, выигрыш может быть умеренным.

Ограничения

Если модель генерирует нерелевантный feedback, поиск уводится в сторону. Ещё один риск в том, что сгенерированный text может слишком сильно отражать bias модели, а не реальный corpus.

Поэтому GRF лучше сочетать с reranking и conservative prompts.

Почему техника актуальна в 2026

Многие retrieval systems упираются именно в quality query reformulation. GRF важен потому, что позволяет делать relevance feedback более содержательным и менее зависимым от слабого first pass.

Это делает технику полезной для production search и RAG pipelines.

Техническая реализация

const feedback = await model(generateFeedbackTextPrompt(query))
const refinedResults = await retrieve(expandQuery(query, feedback))

Практический совет: сравнивайте разные стили feedback generation: entities, facts, document-like text. На разных корпусах они работают по-разному.

Проверьте себя

1. Что делает GRF?

2. Когда GRF особенно полезен?

3. Главный риск GRF?