Fine-tuning (Дообучение)

Процесс дополнительного обучения готовой языковой модели на специализированных данных для адаптации под конкретную задачу или домен.

Fine-tuning (дообучение) — это процесс дополнительного обучения уже готовой языковой модели на ваших данных, чтобы она лучше справлялась с конкретными задачами.

Как это работает

Языковые модели обучены на огромных объёмах текста из интернета, но они ничего не знают о специфике вашей компании или задачи. Fine-tuning добавляет этот слой знаний:

  1. Вы готовите набор примеров: пары «вопрос — правильный ответ» в нужном стиле
  2. Модель дообучается на этих примерах, корректируя свои внутренние параметры
  3. На выходе — модель, которая лучше понимает ваш контекст, стиль и терминологию

Когда нужен fine-tuning

СитуацияFine-tuning нужен?
Модель не знает специфику вашей отраслиВозможно (сначала попробуйте RAG)
Нужен определённый стиль и тон ответовДа
Модель должна всегда отвечать в строгом форматеДа
Нужно использовать внутренние документыНет — лучше RAG
Хотите улучшить качество для одной задачиДа

Пример

Компания дообучила модель на 500 примерах ответов своей службы поддержки. После fine-tuning модель отвечает клиентам в фирменном стиле, использует правильную терминологию продукта и знает типовые решения.

Связанные термины

  • RLHF — метод обучения на основе обратной связи от людей, часто идёт после fine-tuning
  • RAG — альтернативный подход: вместо дообучения модель ищет ответы в базе знаний
  • LLM — базовая языковая модель, которую дообучают