EU AI Act: регулирование AI в Европе

EU AI Act — первый в мире закон об AI. Категории риска, требования, штрафы, сроки. Что нужно знать разработчикам.

EU AI Act (Regulation (EU) 2024/1689) — первый в мире комплексный закон о регулировании искусственного интеллекта. Европейский парламент принял его в марте 2024 года, и он вступает в силу поэтапно с 2025 по 2027 год. Закон затрагивает всех, кто создаёт или использует AI-системы для пользователей в Евросоюзе — вне зависимости от того, где находится компания. Если ваш продукт доступен европейским пользователям, EU AI Act касается и вас.

Представьте, что AI-системы — это лекарства. Некоторые лекарства безвредны (витамины), другие требуют рецепта (антибиотики), а третьи запрещены (наркотические вещества). EU AI Act работает по похожему принципу: он делит AI-системы на категории по уровню риска и устанавливает для каждой категории свои правила. Чем выше риск — тем строже требования.

Суть в двух словах

EU AI Act — это risk-based (основанный на рисках) подход к регулированию AI. Все AI-системы делятся на 4 категории:

КатегорияУровень рискаПримерыЧто нужно делать
ЗапрещённыеНедопустимыйSocial scoring, манипулятивный AI, массовая биометрическая слежкаПолный запрет
Высокий рискВысокийHR-скрининг, кредитный скоринг, медицинская диагностика, образованиеСтрогие требования: аудит, документация, human oversight
Ограниченный рискОграниченныйЧат-боты, генерация deepfake, AI-контентПрозрачность: маркировка AI-контента
Минимальный рискМинимальныйСпам-фильтры, рекомендации, AI в играхБез ограничений
EU AI Act действует экстерриториально — как GDPR. Если ваш AI-продукт доступен пользователям в ЕС, вы обязаны соблюдать закон, даже если ваша компания находится в России, США или Китае.

Ключевые даты

  • Август 2024 — закон опубликован в Official Journal
  • Февраль 2025 — запрет AI-систем с недопустимым риском
  • Август 2025 — требования к GPAI (General-Purpose AI) моделям
  • Август 2026 — основные требования к high-risk системам
  • Август 2027 — полное вступление в силу для всех категорий

Штрафы

  • До 35 млн EUR или 7% глобальной выручки — за использование запрещённых AI-систем
  • До 15 млн EUR или 3% — за нарушение требований к high-risk системам
  • До 7.5 млн EUR или 1.5% — за предоставление ложной информации
ПромптChatGPT / Claude
Я разрабатываю AI-систему для автоматического скрининга резюме кандидатов. Система ранжирует кандидатов по релевантности вакансии. Компания работает с клиентами в ЕС. Какие требования EU AI Act я должен выполнить?
Ответ модели

Ваша система классифицируется как high-risk AI (категория: занятость и управление персоналом). Требования:

  1. Управление рисками (risk management system)
  2. Качество данных (data governance) — проверка обучающих данных на предвзятость
  3. Техническая документация (technical documentation)
  4. Логирование (record-keeping) — хранение логов работы системы
  5. Прозрачность (transparency) — информирование кандидатов об использовании AI
  6. Human oversight — возможность ручного пересмотра решений
  7. Точность и робастность (accuracy & robustness)
  8. Регистрация в EU Database — перед выходом на рынок ЕС

Хронология EU AI Act

4 категории риска подробно

Недопустимый риск — полный запрет

AI-системы, которые полностью запрещены в ЕС:

  • Social scoring — оценка граждан на основе социального поведения (как в Китае)
  • Манипулятивный AI — системы, которые используют подсознательные техники для манипуляции поведением людей, причиняя вред
  • Эксплуатация уязвимостей — AI, нацеленный на людей с когнитивными ограничениями, детей, пожилых
  • Биометрическая слежка — нетаргетированное real-time распознавание лиц в публичных местах (с исключениями для правоохранительных органов)
  • Эмоциональное распознавание — в контексте работы и образования
  • Биометрическая категоризация — классификация людей по расе, политическим взглядам, сексуальной ориентации
Запрет на недопустимые AI-системы вступил в силу уже в феврале 2025 года. Это не будущее — это настоящее.

Высокий риск — строгие требования

AI-системы, которые влияют на важные решения о людях:

  • Занятость — скрининг резюме, оценка кандидатов, решения о повышении и увольнении
  • Образование — оценка студентов, приём в учебные заведения, адаптивное обучение
  • Критическая инфраструктура — управление энергосетями, водоснабжением, транспортом
  • Правоохранение — профилирование, оценка рисков рецидива, анализ доказательств
  • Миграция — оценка заявлений на визу и убежище, пограничный контроль
  • Кредитный скоринг — оценка кредитоспособности физических лиц
  • Медицина — AI как медицинское устройство (Medical Device Regulation)
  • Страхование — оценка рисков для страхования жизни и здоровья

Требования для high-risk систем:

  1. Risk Management System — документированный процесс управления рисками на протяжении всего жизненного цикла
  2. Data Governance — требования к качеству обучающих данных: репрезентативность, отсутствие предвзятости, релевантность
  3. Technical Documentation — подробная документация системы до её выхода на рынок
  4. Record-keeping — автоматическое логирование работы системы
  5. Transparency — информирование пользователей о работе с AI
  6. Human Oversight — возможность человеческого контроля и вмешательства
  7. Accuracy & Robustness — точность, надёжность, кибербезопасность
  8. EU Database Registration — регистрация в единой базе ЕС

Ограниченный риск — требования к прозрачности

AI-системы, для которых достаточно маркировки:

  • Чат-боты — пользователь должен знать, что общается с AI
  • Deepfakes — сгенерированный контент должен быть помечен
  • AI-контент — текст, изображения, аудио, видео, сгенерированные AI, должны иметь машиночитаемую маркировку
  • Системы распознавания эмоций — пользователи должны быть уведомлены
Без маркировки
Компания использует чат-бот для поддержки клиентов. Пользователь не знает, что общается с AI. Нарушение EU AI Act: отсутствие маркировки.
С маркировкой
При начале диалога чат-бот сообщает: 'Вы общаетесь с AI-ассистентом. Если хотите поговорить с человеком, нажмите кнопку ниже.' Соответствует EU AI Act.

Минимальный риск — без ограничений

Большинство AI-систем попадают сюда — никаких обязательных требований:

  • Спам-фильтры
  • Рекомендательные системы (Netflix, Spotify)
  • AI в видеоиграх
  • Инвентарное управление
  • Автокоррекция текста

General-Purpose AI (GPAI) — отдельные правила

EU AI Act вводит специальный режим для General-Purpose AI моделей (фундаментальные модели вроде GPT-4, Claude, Gemini, Llama):

Базовые требования (все GPAI):

  • Техническая документация модели
  • Описание обучающих данных (summary)
  • Соблюдение авторских прав (Copyright Directive)
  • Прозрачность: model card с описанием возможностей и ограничений

Дополнительные требования для GPAI с системным риском (модели, обученные с compute > 10^25 FLOP):

  • Оценка рисков модели (model evaluation)
  • Mitigation of systemic risks
  • Отчётность о серьёзных инцидентах
  • Обеспечение кибербезопасности
  • Энергопотребление и углеродный след
По оценке на 2026 год, порог 10^25 FLOP превышают GPT-4, Claude 3.5/4, Gemini Ultra/Pro. Open-source модели вроде Llama 3 70B пока ниже порога, но он может быть пересмотрен.

Штрафы по категориям

Максимальные штрафы по EU AI Act
Запрещённые AI-системы35 млн EUR
Нарушение high-risk требований15 млн EUR
Ложная информация7.5 млн EUR

Для крупных компаний штраф рассчитывается как процент от глобальной годовой выручки — что может быть значительно больше фиксированных сумм. Для стартапов и малого бизнеса предусмотрены пропорциональные штрафы.

Сравнение мировых подходов к регулированию AI

АспектEU AI ActUS Executive Order (2023)Китай (несколько законов)Россия
ТипОбязательный законИсполнительный указ (отменён в 2025)Обязательные законыДобровольный кодекс + отдельные законы
ПодходRisk-basedVoluntary commitmentsUse-case specificЭкспериментальный
ШтрафыДо 35M EUR / 7% выручкиНет (добровольный)Штрафы и блокировкиНет единых штрафов
GPAIОтдельные требованияSafety testing для frontier моделейЛицензирование generative AIНет специальных требований
ЭкстерриториальностьДаНетЧастичноНет
Статус (2026)Вступает в силу поэтапноОтменён администрацией ТрампаДействуетВ разработке

Плюсы

  • Первый в мире комплексный закон — задаёт мировой стандарт
  • Risk-based подход — регулирует по уровню опасности, не технологию целиком
  • Защита прав граждан от дискриминации и манипуляций AI
  • Требования к прозрачности GPAI — model cards, данные об обучении
  • Стимулирует развитие trustworthy AI

Минусы

  • Высокая стоимость compliance для стартапов
  • Сложность классификации AI-систем по категориям риска
  • Закон может устареть быстрее, чем развивается AI
  • Разные интерпретации в разных странах ЕС
  • Риск замедления AI-инноваций в Европе

Чеклист compliance для LLM-приложений

Если вы разрабатываете приложение на базе LLM, которое доступно пользователям в ЕС, вот что нужно проверить:

Шаг 1: Определите категорию риска

ПромптClaude / ChatGPT
Я разрабатываю AI-систему: [описание]. Определи категорию риска по EU AI Act (unacceptable / high / limited / minimal) и объясни почему. Учти конкретные приложения из Annex III закона.
Ответ модели

Для AI-чатбота службы поддержки: категория ОГРАНИЧЕННЫЙ РИСК.

Причина: система взаимодействует с людьми напрямую (Статья 50 — transparency obligations). Не попадает в Annex III (high-risk), так как не принимает решений о занятости, кредитовании, образовании или критической инфраструктуре.

Требования:

  • Маркировка: пользователь должен знать, что общается с AI
  • Если генерирует контент: machine-readable маркировка
  • Рекомендация: добавить кнопку 'переключиться на человека'

Шаг 2: Маркировка AI-контента

Для систем с ограниченным риском (чат-боты, генераторы контента) необходима маркировка:

В интерфейсе:

<!-- Минимальная маркировка чат-бота -->
<div class="ai-disclosure">
  Вы общаетесь с AI-ассистентом.
  <button @click="requestHuman">Связаться с человеком</button>
</div>

Для сгенерированного контента (C2PA metadata):

{
  "c2pa:manifest": {
    "claim_generator": "MyApp/1.0",
    "assertions": [{
      "label": "c2pa.actions",
      "data": {
        "actions": [{
          "action": "c2pa.created",
          "softwareAgent": "Claude 4 Sonnet",
          "description": "Content generated by AI"
        }]
      }
    }]
  }
}

HTTP-заголовки для AI-генерированного контента:

X-AI-Generated: true
X-AI-Model: claude-4-sonnet
X-AI-Timestamp: 2026-03-05T12:00:00Z

Шаг 3: Документирование модели

Для high-risk систем требуется подробная документация. Структура Model Card:

# Model Card: [Название системы]

## Назначение
- Задача: [конкретная задача, например "скрининг резюме"]
- Целевые пользователи: [HR-специалисты]
- Область применения: [рекрутинг, ЕС]

## Данные
- Обучающие данные: [описание, размер, источники]
- Меры по устранению предвзятости: [перечень]
- Демографическое распределение: [статистика]

## Производительность
- Метрики: [accuracy, precision, recall, F1]
- Разбивка по группам: [пол, возраст, этничность]
- Известные ограничения: [перечень]

## Риски
- Идентифицированные риски: [список]
- Меры митигации: [для каждого риска]
- Остаточные риски: [что не удалось устранить]

## Human Oversight
- Точки вмешательства: [где человек может вмешаться]
- Процесс обжалования: [как пользователь может оспорить решение]

Шаг 4: Risk Assessment — шаблон оценки рисков

Для high-risk AI-систем обязателен формальный risk assessment:

# Risk Assessment Template (EU AI Act, Article 9)

system_name: "AI Resume Screener"
version: "2.1.0"
date: "2026-03-05"
assessor: "AI Safety Team"

# 1. Идентификация рисков
risks:
  - id: RISK-001
    category: "bias"
    description: "Гендерная предвзятость при оценке резюме"
    likelihood: "high"     # low / medium / high
    impact: "high"         # low / medium / high
    risk_level: "critical" # low / medium / high / critical
    mitigation:
      - "Аудит обучающих данных на гендерный баланс"
      - "Регулярное тестирование на bias (ежеквартально)"
      - "Удаление гендерных маркеров из входных данных"
    residual_risk: "medium"
    monitoring: "Ежемесячный отчёт по демографическому распределению решений"

  - id: RISK-002
    category: "transparency"
    description: "Кандидат не понимает, почему его отклонили"
    likelihood: "high"
    impact: "medium"
    risk_level: "high"
    mitigation:
      - "Генерация объяснений для каждого решения (XAI)"
      - "Процесс обжалования с участием человека"
    residual_risk: "low"
    monitoring: "Трекинг апелляций и их исходов"

# 2. Human oversight
human_oversight:
  type: "human-in-the-loop"
  description: "HR-специалист утверждает каждое решение AI"
  escalation: "Отказы с confidence < 0.8 обязательно проходят ручной review"

# 3. Мониторинг
monitoring:
  frequency: "continuous"
  metrics: ["accuracy", "bias_score", "appeal_rate", "override_rate"]
  alerts: ["bias_score > 0.1", "override_rate > 30%"]

Шаг 5: Логирование и аудит

EU AI Act требует автоматического логирования для high-risk систем (Статья 12):

Что хранить:

  • Входные данные (или их хэши для PII)
  • Выходные данные и решения системы
  • Confidence score
  • Версия модели
  • Timestamp каждого решения
  • ID оператора (кто использовал систему)
  • Случаи human override

Как долго хранить:

  • Минимум 6 месяцев — для провайдеров AI-систем
  • Может быть увеличен до 3 лет — для high-risk систем в определённых доменах (закон оставляет это на усмотрение национальных регуляторов)

Пример структуры логов:

interface AIDecisionLog {
  id: string
  timestamp: string            // ISO 8601
  systemVersion: string        // версия модели
  inputHash: string            // SHA-256 хэш входных данных
  inputMetadata: {
    dataType: string
    size: number
    piiPresent: boolean
  }
  output: {
    decision: string           // "approved" | "rejected" | "review"
    confidence: number         // 0.0 - 1.0
    explanation: string        // human-readable объяснение
  }
  humanOversight: {
    operatorId: string
    overridden: boolean
    overrideReason?: string
  }
  auditTrail: {
    modelCard: string          // ссылка на model card
    riskAssessment: string     // ссылка на risk assessment
  }
}

Сравнение с российским регулированием

АспектEU AI ActРоссия (2026)
Основной документRegulation (EU) 2024/1689Национальная стратегия развития AI + Кодекс этики AI
ОбязательностьЗакон с штрафамиКодекс этики — добровольный; 152-ФЗ, 149-ФЗ — обязательные
Risk-based подход4 категории рискаНет формальной классификации
GPAIОтдельные требованияНет специального регулирования
БиометрияСтрогие ограниченияРегулируется 152-ФЗ (персональные данные)
Маркировка AI-контентаОбязательна (Статья 50)Обсуждается, законопроект в Госдуме
Штрафы за AIДо 35M EUR / 7% выручкиНет специальных штрафов за AI
Персональные данныеGDPR + AI Act152-ФЗ
Если вы разрабатываете AI-продукт для российского рынка, но планируете выход на ЕС — проектируйте compliance с EU AI Act с самого начала. Переделывать архитектуру под требования логирования, human oversight и маркировки потом будет значительно дороже.

Полезные ресурсы

Проверьте себя

1. К какой категории риска EU AI Act относит AI-систему для скрининга резюме?

2. Что обязаны делать провайдеры чат-ботов по EU AI Act?

3. Какой максимальный штраф грозит за использование запрещённой AI-системы?

Как обстоят дела с AI-регулированием в России? Читайте: AI-регулирование в России.