Many-shot In-Context Learning — это режим, где вместо 2-5 примеров в контекст кладут десятки или сотни. Такой подход стал практичным благодаря длинным context windows и prompt caching. В 2026 many-shot воспринимают не как экзотику, а как промежуточный слой между few-shot и fine-tuning.
Few-shot — это показать модели несколько примеров. Many-shot — это дать ей уже не "образец", а почти целую рабочую тетрадь.
стоимость длинного контекста приемлема или компенсируется caching.
ПромптGemini 2.5 Pro
Классифицируй тикет поддержки. Ниже 150 размеченных примеров по категориям billing, technical, compliance, access, feature_request. Используй ту же логику.
[...150 примеров...]
Тикет: «Сотрудник уволился, нужно срочно отозвать доступ к админке и выгрузкам»
Ответ модели
access
Many-shot полезен, когда few-shot уже не удерживает все нужные edge-cases, а полноценный fine-tuning ещё рано или невыгодно делать.
Ниже 80 размеченных примеров support triage. Используй те же категории и ту же логику эскалации.
[...examples...]
Новый тикет: «Нам нужен экспорт всех логов аудита за последние 90 дней для проверки комплаенса»
Ниже 60 пар 'до -> после' для нашего tone of voice. Перепиши новый текст в том же стиле.
[...examples...]
До: «Мы выпустили обновление, которое улучшает навигацию в интерфейсе и ускоряет работу системы»
Ответ модели
Навигация стала проще. Интерфейс чище. Система работает быстрее.
Ниже 120 размеченных примеров оценки customer replies по шкале weak / acceptable / strong.
[...examples...]
Новый ответ: «Спасибо, мы рассмотрим ваш запрос позже»
Если большой блок примеров стабилен между запросами, provider-side prompt caching сильно уменьшает стоимость repeated calls. Поэтому many-shot в 2026 часто считают уже не "слишком дорогим всегда", а "дорогим без reuse".