LoRA — это метод эффективного дообучения больших языковых моделей, который позволяет адаптировать модель под конкретную задачу, изменяя лишь малую часть её параметров. Это делает дообучение доступным даже на обычном оборудовании.
При обычном дообучении (fine-tuning) изменяются все миллиарды параметров модели — это дорого и долго. LoRA действует иначе:
| Метод | Изменяемые параметры | Нужные ресурсы | Время |
|---|---|---|---|
| Полное fine-tuning | Все (100%) | Десятки GPU | Дни |
| LoRA | Менее 1% | 1-2 GPU | Часы |
| QLoRA | Менее 1% + квантизация | 1 GPU | Часы |