Выбор моделей и маршрутизация
Как выбирать LLM под задачу, считать экономику и строить routing между fast и smart моделями
Выбор модели в 2026 — это не вопрос вкуса и не соревнование по одному benchmark-у. Практическая команда почти всегда балансирует между качеством, стоимостью, скоростью, типом задачи и риском ошибки. Этот курс помогает перейти от разговоров в стиле "какая модель лучше?" к инженерному вопросу "какая модель лучше подходит для этого workload-а и как её правильно встроить в систему?".
Первый модуль даёт карту ландшафта: как сравнивать frontier-модели без фанатизма и без привязки к одному провайдеру. Второй модуль посвящён экономике: почему AI-функция может стоить на порядок дороже ожидаемого и какие рычаги реально снижают расходы. Третий модуль закрывает routing: когда подключать reasoning-tier, как держать быстрые и дешёвые модели для простых задач и где нужен более дорогой путь.
Курс рассчитан на инженеров, продактов и техлидов, которые выбирают модели не в вакууме, а под реальные ограничения продукта. После прохождения у вас будет более зрелая рамка для model selection, cost control и workload routing.
Курс особенно полезен тем, кто уже сравнивал несколько моделей руками и упёрся в стоимость, latency или непредсказуемое качество на сложных кейсах. Если вы только знакомитесь с экосистемой моделей, сначала лучше пройти базовые материалы по model landscape и production LLM. Здесь же оптимальная траектория простая: сначала понять различия моделей, потом разобраться в экономике, и только после этого строить routing policy поверх этих ограничений.
Модуль 1: Ландшафт моделей
Как сравнивать модели по качеству, стоимости и fit под задачу
Модуль 2: Экономика и throughput
Стоимость, batching, caching и реальная цена AI-функции
Модуль 3: Reasoning и routing
Когда нужен reasoning-tier и как распределять запросы между моделями
