Complexity-Based Prompting — это техника выбора few-shot примеров по их reasoning complexity. Идея проста: не все демонстрации одинаково полезны. Для многошаговых задач модель сильнее выигрывает не от "самых похожих", а часто от тех примеров, где reasoning path достаточно богатый и показывает нужную глубину решения.
В 2026 эта техника особенно полезна как antidote против слишком "лёгких" few-shot примеров. Если в prompt лежат только короткие, поверхностные демо, модель нередко и новый вопрос решает в таком же упрощённом режиме.
Обычный подбор few-shot примеров часто идёт по двум линиям:
Complexity-Based Prompting добавляет третью ось: сложность reasoning. Авторы показывали, что для multi-step задач более "богатые" reasoning demonstrations часто обучают модель лучше, чем просто похожие, но короткие.
Это полезно, потому что модель копирует не только содержание примеров, но и их стиль решения.
Подход хорошо работает для:
Если task family по природе многошаговая, complexity-aware selection почти всегда стоит хотя бы проверить.
Семантическая похожесть полезна, но у неё есть ограничение. Пример может быть тематически близким, но слишком коротким и не показывать нужный паттерн reasoning. Тогда модель видит задачу "про то же", но не видит, как именно развернуть сложное решение.
Complexity-Based Prompting закрывает именно этот разрыв.
Более сложный пример не всегда лучше.
Поэтому техника полезна не как догма "чем длиннее, тем лучше", а как controlled preference for richer reasoning.
Сегодня это особенно актуально в prompt libraries и eval-driven pipelines. Если у вас есть банк примеров, их уже недостаточно просто хранить. Нужно управлять тем, какие examples попадают в prompt на разные классы задач.
Complexity-Based Prompting хорошо ложится на такую систему:
Это делает few-shot более инженерным, а не магическим.