Fine-tuning — дообучение моделей
Когда промптинг и RAG недостаточны — дообучение моделей под вашу задачу. От теории до практических гайдов по OpenAI, LoRA и QLoRA.
Fine-tuning vs RAG
Fine-tuning vs RAG в 2026: behavior vs knowledge access, style vs freshness, citations vs latency и почему гибрид чаще полезнее войны подходов.
Fine-tuning для русского языка
Русский fine-tuning в 2026: locale adaptation, multilingual base models, токенизация, native datasets и eval на реальных русскоязычных задачах.
LoRA и QLoRA для open-source моделей
LoRA и QLoRA в 2026: PEFT как default для open models, adapters vs full fine-tuning, quantization tradeoffs и когда low-rank adaptation реально оправдан.
Model Distillation: как сделать маленькую модель умной
Model distillation в 2026: teacher-student optimization, synthetic supervision, OpenAI distillation, reasoning distills и когда student реально окупает teacher.
OpenAI Fine-tuning: практический гайд
OpenAI fine-tuning в 2026: SFT, DPO, RFT, vision fine-tuning, eval-first workflow и когда дообучение лучше длинного промпта.
RLHF и DPO: выравнивание моделей
Preference optimization в 2026: RLHF как исторический полный пайплайн, DPO как practical default и место RFT/KTO рядом с ними.
Когда промптинга недостаточно
Когда в 2026 стоит переходить от prompt engineering к fine-tuning: behavior gaps, format reliability, eval plateaus и economics длинных промптов.
Синтетические данные для fine-tuning
Synthetic data в 2026: self-instruct, teacher-generated supervision, filtering, graders и почему data engine важнее простого 'сгенерировать побольше'.
