Analogical Prompting — это техника, в которой модель перед решением новой задачи сначала вспоминает похожие случаи, примеры или паттерны, а потом решает текущий кейс через эти аналогии. В 2026 её особенно полезно понимать как self-generated few-shot: demonstrations подбирает не человек, а сама модель.
Когда человеку трудно решить задачу с нуля, он часто вспоминает похожую задачу. Analogical Prompting просит модель сделать то же самое.
нужно "подсветить" нужный способ решения без жёсткой демонстрации от человека.
ПромптGPT-5 mini
Прежде чем решать задачу, приведи 2 короткие похожие задачи и выдели паттерн решения. Затем реши исходную задачу.
Задача: у сервиса 10 000 пользователей, ежемесячный churn 8%, ежемесячный new acquisition 900. Сколько пользователей будет через 2 месяца?
Ответ модели
Похожие задачи показывают паттерн: на каждом шаге сначала считается отток от текущей базы, затем прибавляется новый приток. Применяя этот паттерн:
Месяц 1: 10 000 × 0.92 + 900 = 10 100
Месяц 2: 10 100 × 0.92 + 900 = 10 192
Ответ: 10 192 пользователя.
Во многих задачах модель ошибается не потому, что не умеет считать или сравнивать, а потому что не активировала правильный solution pattern. Analogical Prompting помогает именно с этим:
Сначала поднимается похожий пример.
Из него извлекается pattern.
Pattern переносится на новый кейс.
То есть ценность техники не в красивой аналогии как таковой, а в pattern retrieval from internal knowledge.
Плюсы
Снижает потребность в ручном few-shot
Помогает модели быстрее выйти на правильный паттерн решения
Полезен для учебных и problem-solving задач
Хорошо работает как lightweight bridge между zero-shot и few-shot
Минусы
Сгенерированные аналогии могут быть слабыми или ложными
Увеличивает длину ответа
Не нужен там, где задача уже тривиальна
Не заменяет retrieval, если нужны точные внешние факты
Если пользователю нужен grounded answer, а не pattern transfer, лучше использовать retrieval или verification.
Это особенно важно в продуктах, где аналогия может звучать убедительно, но уводить не туда. Если задача factual или compliance-heavy, "похожий случай" не заменяет проверяемый источник.
Плохой вариант техники — просить модель сгенерировать много аналогий. Тогда ответ быстро расползается, а полезный pattern тонет в декоративных примерах.
Ещё типичные промахи:
аналогия не совпадает по структуре задачи;
pattern не извлекается явно;
финальное решение не опирается на analogy phase;
free-form analogy начинает подменять собой фактический ответ.