Глоссарий AI-терминов
50 терминов с объяснениями на русском языке.
A
AI-агент (AI Agent)
Автономная AI-система, которая самостоятельно планирует действия, использует инструменты и выполняет многошаговые задачи без постоянного контроля человека.
API (Application Programming Interface)
Программный интерфейс для взаимодействия с языковой моделью из кода — позволяет встраивать AI в приложения, сайты и сервисы.
Alignment (выравнивание AI)
Процесс обучения AI-модели действовать в соответствии с намерениями человека, быть полезной, честной и безопасной.
F
Few-shot обучение (Few-shot Learning)
Способность языковой модели выполнять задачу на основе нескольких примеров, приведённых прямо в промпте, без дополнительного обучения.
Fine-tuning (Дообучение)
Процесс дополнительного обучения готовой языковой модели на специализированных данных для адаптации под конкретную задачу или домен.
L
LLM (Large Language Model — Большая языковая модель)
Нейросеть с миллиардами параметров, обученная на огромных объёмах текста и способная генерировать, анализировать и преобразовывать текст.
LoRA (Low-Rank Adaptation)
Метод эффективного дообучения AI-моделей, позволяющий адаптировать большую модель под конкретную задачу с минимальными затратами ресурсов.
R
RAG (Retrieval-Augmented Generation)
Технология, при которой языковая модель сначала ищет релевантную информацию в базе знаний, а затем формирует ответ на её основе.
RLHF (Обучение с подкреплением на основе обратной связи от людей)
Метод обучения языковых моделей, при котором люди оценивают ответы модели, а модель учится генерировать более полезные и безопасные ответы.
T
Tool Use / Function Calling
Способность AI-модели вызывать внешние инструменты и функции: поиск в интернете, выполнение кода, работа с API и базами данных.
Top-p / Nucleus Sampling (Ядерная выборка)
Параметр, ограничивающий выбор следующего слова только самыми вероятными вариантами. Контролирует разнообразие ответов модели.
Г
Галлюцинации (Hallucinations)
Ситуация, когда языковая модель уверенно генерирует ложную, выдуманную или неточную информацию, выдавая её за факт.
Гарды (Guardrails)
Защитные механизмы и фильтры, ограничивающие поведение AI-модели: блокировка опасного контента, проверка фактов, контроль формата ответов.
З
Законы масштабирования (Scaling Laws)
Закономерности, показывающие, что качество AI-модели предсказуемо растёт с увеличением данных, размера модели и объёма вычислений.
Закрытые модели (Closed Source)
AI-модели, доступные только через API или веб-интерфейс. Веса и код модели не публикуются. Примеры: GPT-4, Claude, GigaChat.
К
Квантизация (Quantization)
Метод сжатия AI-модели путём снижения точности числовых параметров. Уменьшает размер модели и ускоряет её работу с минимальной потерей качества.
Контекстное окно (Context Window)
Максимальный объём текста (в токенах), который языковая модель может обработать за один запрос — включая и ваш ввод, и ответ модели.
Косинусное сходство (Cosine Similarity)
Математическая метрика, измеряющая смысловую близость двух текстов через угол между их числовыми представлениями (векторами).
М
П
Перплексия (Perplexity)
Метрика качества языковой модели, показывающая, насколько уверенно модель предсказывает следующее слово. Чем ниже перплексия — тем лучше.
Промпт (Prompt)
Текстовый запрос или инструкция, которую пользователь отправляет языковой модели для получения ответа.
Промпт-инженерия (Prompt Engineering)
Навык и практика составления эффективных запросов к языковым моделям для получения наилучших результатов.
Пропускная способность (Throughput)
Количество запросов или токенов, которое система с языковой моделью может обработать за единицу времени.
С
Семантический поиск (Semantic Search)
Поиск по смыслу, а не по точному совпадению слов. AI понимает значение запроса и находит релевантные результаты, даже если слова не совпадают.
Синтетические данные (Synthetic Data)
Данные, сгенерированные AI-моделью, а не собранные из реального мира. Используются для обучения и тестирования других моделей.
Системный промпт (System Prompt)
Скрытая инструкция для AI-модели, задающая её роль, стиль общения и правила поведения до начала разговора с пользователем.
Т
Температура (Temperature)
Параметр, контролирующий случайность и креативность ответов языковой модели. Низкая температура — предсказуемые ответы, высокая — творческие.
Токенизатор (Tokenizer)
Программа, которая разбивает текст на токены — минимальные единицы, с которыми работает языковая модель.
Токены (Tokens)
Единицы текста, на которые модель разбивает входные данные для обработки. Одно слово — обычно 1-3 токена.
Трансформер (Transformer)
Архитектура нейросети, лежащая в основе всех современных языковых моделей. Революционная разработка 2017 года от Google.
