Fine-tuning — дообучение моделей

Когда промптинг и RAG недостаточны — дообучение моделей под вашу задачу. От теории до практических гайдов по OpenAI, LoRA и QLoRA.

Fine-tuning vs RAG

Fine-tuning vs RAG в 2026: behavior vs knowledge access, style vs freshness, citations vs latency и почему гибрид чаще полезнее войны подходов.

Средняя

Fine-tuning для русского языка

Русский fine-tuning в 2026: locale adaptation, multilingual base models, токенизация, native datasets и eval на реальных русскоязычных задачах.

Продвинутая

LoRA и QLoRA для open-source моделей

LoRA и QLoRA в 2026: PEFT как default для open models, adapters vs full fine-tuning, quantization tradeoffs и когда low-rank adaptation реально оправдан.

Продвинутая

Model Distillation: как сделать маленькую модель умной

Model distillation в 2026: teacher-student optimization, synthetic supervision, OpenAI distillation, reasoning distills и когда student реально окупает teacher.

Продвинутая

OpenAI Fine-tuning: практический гайд

OpenAI fine-tuning в 2026: SFT, DPO, RFT, vision fine-tuning, eval-first workflow и когда дообучение лучше длинного промпта.

Средняя

RLHF и DPO: выравнивание моделей

Preference optimization в 2026: RLHF как исторический полный пайплайн, DPO как practical default и место RFT/KTO рядом с ними.

Продвинутая

Когда промптинга недостаточно

Когда в 2026 стоит переходить от prompt engineering к fine-tuning: behavior gaps, format reliability, eval plateaus и economics длинных промптов.

Начальная

Синтетические данные для fine-tuning

Synthetic data в 2026: self-instruct, teacher-generated supervision, filtering, graders и почему data engine важнее простого 'сгенерировать побольше'.

Средняя