In-Context Learning (ICL) — это способность языковой модели учиться новым задачам прямо «на лету», используя примеры из промпта. Модель не меняет свои параметры — она просто анализирует показанные примеры и применяет тот же паттерн к новому вопросу.
Вместо того чтобы переобучать модель, вы показываете ей несколько примеров прямо в запросе:
Промпт:
Переведи эмоцию в эмодзи:
Радость → 😊
Грусть → 😢
Злость → 😠
Удивление →
Модель видит паттерн (эмоция → эмодзи) и продолжает его, хотя никогда не обучалась именно этой задаче.
| Вариант | Количество примеров | Когда подходит |
|---|---|---|
| Zero-shot | 0 примеров | Простая и понятная задача |
| One-shot | 1 пример | Нужно задать формат |
| Few-shot | 2-5 примеров | Нужно показать паттерн |
| Many-shot | 10+ примеров | Сложная или нестандартная задача |
In-Context Learning — одна из главных причин популярности LLM. Раньше для каждой новой задачи приходилось обучать отдельную модель (дни работы, дорогие GPU). Теперь достаточно показать несколько примеров в промпте — и модель справляется за секунды.