AI в продакшене
Оценка качества, оптимизация стоимости, безопасность и мониторинг AI-систем
Запустить AI-функцию в прод — это только начало. Настоящая работа начинается после: как понять, что модель отвечает хорошо? Как не разориться на API-запросах при росте нагрузки? Как защитить систему от prompt injection и других атак? Этот курс отвечает на все эти вопросы и закрывает разрыв между AI-прототипом и надёжной продакшен-системой.
Первый модуль посвящён evals (оценке качества) — ключевой практике, без которой любые улучшения превращаются в гадание. Разберём, как выбирать метрики, строить тестовые наборы и автоматически оценивать качество ответов модели. Второй модуль — оптимизация затрат: prompt caching (кеширование промптов), batch API для офлайн-задач, structured outputs для снижения числа токенов и стратегии выбора модели по соотношению цена/качество.
Третий модуль закрывает безопасность и наблюдаемость (observability): как защититься от prompt injection (инъекций в промпт), утечки системных инструкций и джейлбрейков, как настроить логирование и трассировку LLM-вызовов, как проводить red teaming (тестирование на устойчивость к атакам) до выхода в прод. Отдельный урок — context engineering в продакшене: управление окном контекста при длинных диалогах.
Курс рассчитан на ML-инженеров и backend-разработчиков, которые уже работают с LLM API и хотят поднять планку надёжности своих систем. Базовое понимание RAG и агентов будет плюсом, но не обязательным условием.
Модуль 1: Оценка качества
Evals, метрики, фреймворки оценки
Модуль 2: Оптимизация
Кеширование, снижение затрат, batch API, структурированный вывод
Модуль 3: Безопасность и мониторинг
Защита от атак, мониторинг, red teaming, context engineering
