Selection-Inference

[object Object]

Selection-Inference — это простая, но сильная идея: не просить модель сразу решить задачу по всему контексту, а разделить процесс на два шага. Сначала она выбирает нужные факты, правила или фрагменты (selection), а уже потом строит вывод (inference) только на этой сжатой опоре.

В 2026 такой подход особенно полезен, потому что модели получают всё более длинный контекст, но длинный контекст сам по себе не гарантирует точность. Частая проблема не в том, что модель "не знает", а в том, что она делает вывод по шумной смеси из релевантного и нерелевантного.

Selection-Inference полезен всякий раз, когда вы можете показать команде два разных артефакта: что именно модель выбрала в качестве основания и какой вывод она из этого сделала.

Коротко

Техника состоит из двух шагов:

  1. выбрать только нужные факты;
  2. делать вывод уже по этому компактному набору.
ПромптClaude Sonnet 4.6
Задача в два шага.

Шаг 1: из описания выбери только факты, влияющие на право возврата.
Шаг 2: по этим фактам реши, можно ли принять возврат.

Описание: товар куплен 12 дней назад, чек сохранён, следов использования нет, упаковка вскрыта, категория - одежда, клиент покупал ещё аксессуары по отдельному чеку.
Ответ модели

Шаг 1. Релевантные факты:

  • покупка 12 дней назад;
  • чек есть;
  • следов использования нет;
  • категория: одежда.

Шаг 2. Вывод: Для решения о возврате достаточно этих условий. Дополнительная покупка аксессуаров по другому чеку нерелевантна. Возврат можно принять, если внутренний регламент допускает вскрытую упаковку для этой категории.

Если проблема в "грязном" контексте, Selection-Inference часто полезнее, чем просто просить модель "думать внимательнее".

Почему техника работает

Во многих multi-step задачах ошибка происходит раньше финального вывода. Модель подхватывает не тот факт, смешивает главное с второстепенным или начинает тащить в reasoning красивую, но лишнюю деталь.

Selection-Inference чинит именно это место:

  • selection отвечает за релевантность;
  • inference отвечает за вывод.

Такое разделение делает reasoning более проверяемым. Если финальный ответ неверен, можно быстро понять, проблема была в выборе основания или уже в самом выводе.

Когда техника особенно полезна

Подход хорошо работает для:

  • длинных правил и политик;
  • юридических и регуляторных текстов;
  • multi-hop QA;
  • аналитики по нескольким источникам;
  • enterprise-сценариев, где в контекст попадает много служебного шума.

Это одна из самых полезных техник там, где "всё вроде есть в контексте", но ответ всё равно плавает.

Один проход
Модель читает весь policy doc сразу и смешивает обязательные условия с примечаниями, исключениями и примерами.
Selection -> Inference
Сначала модель выбирает только применимые условия и факты, затем строит вывод по компактной опоре. Ошибок из-за шумного контекста становится меньше.

Как задавать технику в промпте

Лучше не ограничиваться фразой "сначала выбери важное". Нужно явно разделить этапы.

Где техника сильнее обычного RAG

RAG решает вопрос "что подтащить в контекст". Selection-Inference решает другой вопрос: "что из уже доступного контекста действительно использовать как основание".

Поэтому техника полезна даже после retrieval. Она работает как внутренний фильтр перед выводом.

Хороший production-паттерн:

  • retrieval приносит 5-10 фрагментов;
  • selection выбирает 2-4 реально нужных;
  • inference строит ответ;
  • при high-risk сценарии добавляется verification.

Ограничения

Техника не волшебная.

  • Если в контексте нет нужного факта, selection не спасёт.
  • Если правила двусмысленны, inference всё равно может ошибиться.
  • Если модель плохо различает релевантность, selection станет ещё одним источником ошибки.

Поэтому Selection-Inference особенно полезен там, где можно задать чёткий критерий релевантности: "выбери только условия, которые прямо влияют на решение".

Как понимать технику в 2026

Сегодня её лучше воспринимать не как музейный research-pattern, а как рабочий дизайн-принцип для LLM-приложений:

  • не заставляйте модель сразу делать всё;
  • разделяйте "собрать основание" и "сделать вывод".

Именно это делает систему прозрачнее. Для команды гораздо легче спорить о selection, чем о длинном конечном рассуждении, где всё смешано.

Типичные anti-patterns

Частые ошибки:

  1. На шаге selection модель уже выносит вердикт.
  2. На шаге inference она тащит новые факты, которых не было в selection.
  3. Selection слишком широкий и почти не сжимает контекст.
  4. Команда не хранит промежуточный артефакт и теряет возможность аудита.

Если selection почти равен исходному контексту, техника не сработала. Её смысл именно в осмысленном сжатии.

Техническая реализация

const selectionPrompt = `
Выбери только факты и правила, которые напрямую влияют на решение.
Не делай финальный вывод.
`

const inferencePrompt = `
Используй только выбранные факты ниже.
Не добавляй новые основания.
Сделай финальный вывод и коротко объясни его.
`

Полезный инженерный паттерн: валидировать, что второй шаг действительно использует только selection. Даже простой string-level или schema-level контроль уже снижает дрейф reasoning.

Проверьте себя

1. В чём суть Selection-Inference?

2. Когда она особенно полезна?

3. Какой anti-pattern здесь самый опасный?