Grounding (заземление)

Привязка ответов AI-модели к фактическим данным и достоверным источникам для снижения галлюцинаций.

Grounding (заземление) — это техника привязки ответов языковой модели к конкретным фактам, документам или источникам данных. Цель — снизить количество галлюцинаций и повысить достоверность ответов.

Как это работает

Вместо того чтобы полагаться только на «знания» модели (полученные при обучении), grounding подключает внешние источники:

  1. Поисковый grounding: модель ищет информацию в интернете перед ответом (ChatGPT Search, Perplexity)
  2. Документный grounding: модель отвечает строго на основе предоставленных документов (RAG)
  3. Цитатный grounding: модель указывает источник каждого утверждения

Почему это важно

Без grounding модель может уверенно выдавать несуществующие факты, даты, цитаты. С grounding модель ограничена реальными данными и может сослаться на источник.

Пример

  • Без grounding: «Компания X была основана в 2015 году» (может быть неправдой)
  • С grounding: «Согласно данным ЕГРЮЛ, компания X зарегистрирована 12.03.2017» (проверяемый факт)

Связанные термины

  • RAG — основной метод грounding через извлечение документов
  • Галлюцинации — ложные утверждения, которые grounding помогает предотвращать
  • Цитирование — указание источников в ответе модели