In-Context Learning (обучение в контексте)

Способность AI-модели учиться на примерах, предоставленных прямо в промпте, без изменения своих параметров и дополнительного обучения.

In-Context Learning (ICL) — это способность языковой модели учиться новым задачам прямо «на лету», используя примеры из промпта. Модель не меняет свои параметры — она просто анализирует показанные примеры и применяет тот же паттерн к новому вопросу.

Как это работает

Вместо того чтобы переобучать модель, вы показываете ей несколько примеров прямо в запросе:

Промпт:

Переведи эмоцию в эмодзи:
Радость → 😊
Грусть → 😢
Злость → 😠
Удивление →

Модель видит паттерн (эмоция → эмодзи) и продолжает его, хотя никогда не обучалась именно этой задаче.

Варианты использования

ВариантКоличество примеровКогда подходит
Zero-shot0 примеровПростая и понятная задача
One-shot1 примерНужно задать формат
Few-shot2-5 примеровНужно показать паттерн
Many-shot10+ примеровСложная или нестандартная задача

Почему это важно

In-Context Learning — одна из главных причин популярности LLM. Раньше для каждой новой задачи приходилось обучать отдельную модель (дни работы, дорогие GPU). Теперь достаточно показать несколько примеров в промпте — и модель справляется за секунды.

Ограничения

  • Количество примеров ограничено размером контекстного окна
  • Качество зависит от выбора и порядка примеров
  • На очень сложных задачах может не заменить полноценное дообучение

Связанные термины

  • Few-shot Prompting — техника промптинга, основанная на In-Context Learning
  • Fine-tuning — полноценное дообучение модели, альтернатива ICL для сложных задач
  • Контекстное окно — максимальный объём текста, доступный для примеров