EU AI Act — первый в мире закон об AI. Категории риска, требования, штрафы, сроки. Что нужно знать разработчикам.
EU AI Act (Regulation (EU) 2024/1689) — первый в мире комплексный закон о регулировании искусственного интеллекта. Европейский парламент принял его в марте 2024 года, и он вступает в силу поэтапно с 2025 по 2027 год. Закон затрагивает всех, кто создаёт или использует AI-системы для пользователей в Евросоюзе — вне зависимости от того, где находится компания. Если ваш продукт доступен европейским пользователям, EU AI Act касается и вас.
Представьте, что AI-системы — это лекарства. Некоторые лекарства безвредны (витамины), другие требуют рецепта (антибиотики), а третьи запрещены (наркотические вещества). EU AI Act работает по похожему принципу: он делит AI-системы на категории по уровню риска и устанавливает для каждой категории свои правила. Чем выше риск — тем строже требования.
EU AI Act — это risk-based (основанный на рисках) подход к регулированию AI. Все AI-системы делятся на 4 категории:
Категория
Уровень риска
Примеры
Что нужно делать
Запрещённые
Недопустимый
Social scoring, манипулятивный AI, массовая биометрическая слежка
Полный запрет
Высокий риск
Высокий
HR-скрининг, кредитный скоринг, медицинская диагностика, образование
Строгие требования: аудит, документация, human oversight
Ограниченный риск
Ограниченный
Чат-боты, генерация deepfake, AI-контент
Прозрачность: маркировка AI-контента
Минимальный риск
Минимальный
Спам-фильтры, рекомендации, AI в играх
Без ограничений
EU AI Act действует экстерриториально — как GDPR. Если ваш AI-продукт доступен пользователям в ЕС, вы обязаны соблюдать закон, даже если ваша компания находится в России, США или Китае.
До 35 млн EUR или 7% глобальной выручки — за использование запрещённых AI-систем
До 15 млн EUR или 3% — за нарушение требований к high-risk системам
До 7.5 млн EUR или 1.5% — за предоставление ложной информации
ПромптChatGPT / Claude
Я разрабатываю AI-систему для автоматического скрининга резюме кандидатов. Система ранжирует кандидатов по релевантности вакансии. Компания работает с клиентами в ЕС. Какие требования EU AI Act я должен выполнить?
Ответ модели
Ваша система классифицируется как high-risk AI (категория: занятость и управление персоналом). Требования:
Управление рисками (risk management system)
Качество данных (data governance) — проверка обучающих данных на предвзятость
Чат-боты — пользователь должен знать, что общается с AI
Deepfakes — сгенерированный контент должен быть помечен
AI-контент — текст, изображения, аудио, видео, сгенерированные AI, должны иметь машиночитаемую маркировку
Системы распознавания эмоций — пользователи должны быть уведомлены
Без маркировки
Компания использует чат-бот для поддержки клиентов. Пользователь не знает, что общается с AI. Нарушение EU AI Act: отсутствие маркировки.
С маркировкой
При начале диалога чат-бот сообщает: 'Вы общаетесь с AI-ассистентом. Если хотите поговорить с человеком, нажмите кнопку ниже.' Соответствует EU AI Act.
EU AI Act вводит специальный режим для General-Purpose AI моделей (фундаментальные модели вроде GPT-4, Claude, Gemini, Llama):
Базовые требования (все GPAI):
Техническая документация модели
Описание обучающих данных (summary)
Соблюдение авторских прав (Copyright Directive)
Прозрачность: model card с описанием возможностей и ограничений
Дополнительные требования для GPAI с системным риском (модели, обученные с compute > 10^25 FLOP):
Оценка рисков модели (model evaluation)
Mitigation of systemic risks
Отчётность о серьёзных инцидентах
Обеспечение кибербезопасности
Энергопотребление и углеродный след
По оценке на 2026 год, порог 10^25 FLOP превышают GPT-4, Claude 3.5/4, Gemini Ultra/Pro. Open-source модели вроде Llama 3 70B пока ниже порога, но он может быть пересмотрен.
Для крупных компаний штраф рассчитывается как процент от глобальной годовой выручки — что может быть значительно больше фиксированных сумм. Для стартапов и малого бизнеса предусмотрены пропорциональные штрафы.
Я разрабатываю AI-систему: [описание]. Определи категорию риска по EU AI Act (unacceptable / high / limited / minimal) и объясни почему. Учти конкретные приложения из Annex III закона.
Ответ модели
Для AI-чатбота службы поддержки: категория ОГРАНИЧЕННЫЙ РИСК.
Причина: система взаимодействует с людьми напрямую (Статья 50 — transparency obligations). Не попадает в Annex III (high-risk), так как не принимает решений о занятости, кредитовании, образовании или критической инфраструктуре.
Требования:
Маркировка: пользователь должен знать, что общается с AI
Если генерирует контент: machine-readable маркировка
Рекомендация: добавить кнопку 'переключиться на человека'
Если вы разрабатываете AI-продукт для российского рынка, но планируете выход на ЕС — проектируйте compliance с EU AI Act с самого начала. Переделывать архитектуру под требования логирования, human oversight и маркировки потом будет значительно дороже.