Галлюцинации — это случаи, когда языковая модель генерирует информацию, которая выглядит правдоподобно, но на самом деле является ложной, выдуманной или неточной.
Языковая модель не «знает» факты — она предсказывает наиболее вероятное продолжение текста. Иногда это приводит к ошибкам:
- Выдуманные факты — модель может назвать несуществующую книгу или статью
- Ложные цитаты — приписать человеку слова, которых он не говорил
- Несуществующие ссылки — сгенерировать URL, который не существует
- Смешение фактов — соединить реальные данные в неправильную комбинацию
| Причина | Пояснение |
|---|
| Нет доступа к фактам | Модель генерирует текст по вероятности, а не ищет в базе знаний |
| Уверенный тон | Модель обучена давать уверенные ответы, даже когда «не уверена» |
| Устаревшие данные | Модель знает только то, что было в обучающих данных |
| Редкие темы | Чем меньше данных по теме, тем выше риск галлюцинаций |
- Просите модель ссылаться на конкретные источники и проверяйте их
- Используйте RAG — подключение модели к актуальной базе знаний
- Просите модель сообщать, когда она не уверена в ответе
- Снижайте температуру для фактических задач
- Grounding — подключение модели к фактическим данным для снижения галлюцинаций
- RAG — технология, помогающая модели опираться на реальные документы
- Температура — параметр: чем выше, тем больше риск галлюцинаций