System 2 Attention (S2A)

[object Object]

System 2 Attention, или S2A, — это двухшаговый паттерн: сначала отделить полезные факты от шума, opinions и biasing cues, а потом отвечать уже на очищенном входе. В 2026 эту технику удобно понимать как lightweight preprocessing для случаев, где проблема не в reasoning-способностях модели, а в том, что вход перегружен мусором или подталкивает к поспешному выводу.

Иногда модель ошибается не потому, что "не умеет думать", а потому, что ей дали слишком шумный или эмоционально окрашенный ввод.

Суть в двух словах

S2A подходит, когда вход:

  • перегружен лишними деталями;
  • содержит эмоциональный шум;
  • смешивает факты и мнения;
  • подталкивает модель к поспешному выводу.

Типичные кейсы:

  • noisy support tickets;
  • длинные email threads;
  • user complaints;
  • аналитика по хаотичным notes;
  • judge prompts с irrelevant wording;
  • document QA, где вопрос содержит biasing framing.
ПромптGPT-5 mini
Шаг 1: выдели только факты из запроса.
Шаг 2: ответь только по выделенным фактам.

Запрос: «Я уже неделю злой из-за вашего сервиса. Возможно, проблема вообще не в вас, но после обновления отчёты стали грузиться по 40 секунд, и команда не может работать как раньше»
Ответ модели

Факты: после обновления отчёты грузятся ~40 секунд; команда работает медленнее.

Ответ: стоит проверить регрессию производительности после последнего релиза, профилировать тяжёлые запросы и сравнить latency до/после обновления.

Что делает техника

У модели есть уязвимость: она может слишком сильно реагировать на framing input-а. Например:

  • пользовательский тон слишком эмоциональный;
  • жалоба смешивает факт и интерпретацию;
  • вопрос задаётся с уже встроенным bias;
  • в длинном тексте много нерелевантных деталей.

S2A вставляет промежуточную фазу:

  1. выделить релевантный factual core;
  2. только потом строить answer.

То есть техника защищает reasoning не напрямую, а через более чистый вход.

Плюсы

  • Снижает влияние нерелевантных cues
  • Полезен для noisy tickets, long emails и эмоциональных inputs
  • Хорошо сочетается с summarization и routing
  • Может улучшать judge и analysis tasks

Минусы

  • Добавляет дополнительный шаг
  • Можно случайно потерять важную деталь
  • Не нужен для коротких чистых запросов
  • Требует eval на loss of information

Где техника особенно уместна

Лучшие сценарии:

  • customer support;
  • incident reports;
  • legal or compliance intake;
  • research notes;
  • product feedback analysis;
  • noisy internal communication;
  • tasks, где пользователь сам задаёт biasing interpretation.

Почему S2A полезен именно как preprocessing layer

Эта техника сильнее всего не как "ещё один reasoning trick", а как фильтр перед основным route. Она особенно полезна, когда downstream модель в целом компетентна, но входные данные мешают ей проявить это:

  • эмоциональный шум давит на тон ответа;
  • нерелевантные детали забивают рабочую память;
  • user framing подталкивает к поспешному выводу;
  • factual core размазан по жалобе или длинному треду.

В таких случаях S2A улучшает не reasoning-механику модели, а качество входа, на котором эта механика будет работать.

Менее полезна техника:

  • на уже clean structured inputs;
  • в JSON-only automation;
  • там, где upstream already does strong extraction;
  • на коротких ясных вопросах.

То есть S2A особенно полезен на human-written noisy input и заметно менее полезен на machine-prepared structured state.

В чём сила и риск S2A

Сила техники:

  • модель не так легко уходит в эмоциональную окраску;
  • facts отделяются от interpretation;
  • ответ становится более operational.

Главный риск:

  • preprocessing может случайно вырезать именно ту деталь, которая была критична.

Поэтому S2A нельзя внедрять без проверки на information loss.

Если используете S2A, полезно просить модель возвращать не только cleaned input, но и список отброшенных элементов. Так легче понять, не потеряли ли вы что-то важное.

Хороший prompt pattern

Практически устойчивый вариант выглядит так:

  1. Выдели факты, числа, ограничения, наблюдения.
  2. Отдели эмоции, интерпретации, blame language и speculation.
  3. Ответь только по factual layer.

Так техника работает лучше, чем расплывчатое "очисти вход от шума".

Что именно нельзя терять при очистке

Даже при aggressive cleanup важно сохранять:

  • числа;
  • таймлайны;
  • указания на severity;
  • подтверждённые факты vs предположения;
  • ограничения и requested action.

Если эти вещи теряются, cleaned input становится чище, но хуже с точки зрения реальной задачи.

Сравнение с соседними техниками

System 2 Attention
Переписывает noisy input в более чистую форму
Re-Reading
Повторно читает исходный input без явной фильтрации
System 2 Attention
Чистит noisy input
Context-Faithful Prompting
Усиливает опору на given context против parametric memory
System 2 Attention
Помогает выделить signal из noisy text
Instruction Hierarchy
Определяет, каким инструкциям доверять больше

Частые ошибки

Плохой вариант S2A — считать, что любое эмоциональное или длинное описание надо aggressively чистить. Иногда эмоция сама по себе является полезным сигналом, например для severity или user urgency.

Ещё типичные ошибки:

  • стирать все contextual hints;
  • смешивать factual rewrite и final answer в один абзац;
  • не логировать cleaned version;
  • не измерять, сколько важной информации теряется.

Когда лучше взять соседнюю технику

Если проблема в том, что модель:

  • не опирается на данный документ -> Context-Faithful Prompting;
  • неправильно определяет приоритет инструкций -> Instruction Hierarchy;
  • плохо понимает сам вопрос -> Rephrase and Respond.

S2A особенно хорош именно тогда, когда input noisy, а не тогда, когда trust model или grounding уже сломаны на другом уровне.

Practical use

def clean_input(raw_text):
    """
    Псевдошаг S2A:
    выделить факты, ограничения, численные данные и наблюдения.
    """
    return fact_extractor(raw_text)

Полезный production-паттерн

noisy user input -> factual rewrite -> downstream task

Это особенно хорошо работает для:

  • support;
  • analytics;
  • decision-support;
  • internal copilots.

Что стоит мерить

  • answer quality before/after cleaning;
  • fact retention rate;
  • dropped-critical-detail rate;
  • reduction of emotional/bias leakage in final answer.

Без этого техника легко превращается в красивый preprocessing без подтверждённого выигрыша.

Practical telemetry

Если техника идёт в прод, полезно хранить:

  • raw input;
  • cleaned input;
  • dropped fragments;
  • downstream answer.

Так можно отдельно разбирать случаи, где S2A действительно помог, и случаи, где он выкинул нужную деталь.

Проверьте себя

Проверьте себя

1. Что делает S2A в первую очередь?

2. Когда S2A особенно полезен?

3. Главный риск S2A?