AI-регулирование в России: стратегия, законы и перспективы

Национальная стратегия AI, 149-ФЗ, проекты законов — как Россия регулирует искусственный интеллект

Россия выбрала свой путь в регулировании искусственного интеллекта — не жёсткие запреты, как в EU AI Act, а гибкий подход: национальная стратегия развития, добровольный Кодекс этики, экспериментальные правовые режимы и точечные законопроекты. Единого «закона об AI» пока нет, но регулятивная база активно формируется. В этой статье разберём, что уже работает, что в процессе и чего ожидать в ближайшие годы.

Регулирование AI — это как правила дорожного движения для технологий. Без них каждый разработчик «ехал бы» по своим правилам: кто-то аккуратно, а кто-то создавал бы аварии. Россия сейчас прокладывает эту дорогу: ставит знаки, рисует разметку и тестирует правила на отдельных участках (экспериментальных режимах), прежде чем ввести их по всей стране.

Текущее состояние

Россия регулирует AI не единым законом, а комбинацией документов:

ДокументТипСтатус
Национальная стратегия развития AI до 2030Указ Президента (№ 490)Действует, обновлена в 2024
Кодекс этики в сфере AIДобровольный отраслевой кодексДействует с 2021, 900+ подписантов
149-ФЗ «Об информации»Федеральный законДействует, применяется к AI-контенту
152-ФЗ «О персональных данных»Федеральный законДействует, касается данных в AI
Экспериментальные правовые режимыФедеральные законы (258-ФЗ, 123-ФЗ, 169-ФЗ)Действуют
Рамочный закон об AIЗаконопроектВ разработке, рабочая группа Госдумы

Ключевые законы

Национальная стратегия (Указ № 490, обновлён в 2024): задаёт цели — рост ВВП от AI на 11,2 трлн руб. к 2030, суперкомпьютерная мощность 1 эксафлопс, уровень доверия граждан к AI — 80%.

Кодекс этики AI (2021): добровольный документ, подписанный Сбером, Яндексом, Ростелекомом, ВШЭ и ещё 900+ организациями. Закрепляет принципы: прозрачность, безопасность, недискриминация, ответственность.

152-ФЗ: персональные данные россиян должны храниться на серверах в России — это напрямую касается AI-систем, обрабатывающих пользовательские данные.

Экспериментальные правовые режимы: «песочницы», где компании тестируют AI-технологии (беспилотники, медицинская диагностика) с послаблениями от отдельных законов.

Плюсы

  • Гибкий подход — не тормозит инновации, даёт бизнесу время адаптироваться
  • Экспериментальные режимы позволяют тестировать AI-решения в реальных условиях
  • Добровольный кодекс этики создаёт культуру ответственного AI без штрафов
  • Фокус на развитие собственной AI-экосистемы (LLM, вычислительные мощности)

Минусы

  • Нет единого закона — правовая неопределённость для бизнеса
  • Добровольный кодекс не имеет юридической силы — нет ответственности за нарушение
  • Отсутствие классификации AI-систем по рискам (как в EU AI Act)
  • Вопросы авторского права на AI-контент не урегулированы

Национальная стратегия развития AI

Хронология

Цели стратегии до 2030

Обновлённая в 2024 году стратегия определяет конкретные целевые показатели:

Ключевые цели Национальной стратегии AI к 2030 (условная шкала)
Рост ВВП от AI — 11,2 трлн руб.90%
Расходы на AI — 850 млрд руб./год68%
Доверие граждан к AI — 80%80%
Готовность отраслей — 95%95%
Суперкомп. мощность — 1 Exaflops50%
Значения на диаграмме отражают относительные пропорции для наглядности, а не абсолютные числа. Фактические целевые показатели указаны в подписях и расшифрованы ниже.
  • Рост ВВП от AI: накопительный эффект 11,2 трлн руб. к 2030 году
  • Расходы организаций на AI: рост до 850 млрд руб. в год
  • Доверие граждан: целевой уровень 80%
  • Готовность отраслей к внедрению AI: с 12% (2022) до 95% (2030)
  • Суперкомпьютерные мощности: от 0,073 Exaflops (2022) до минимум 1 Exaflops
  • Подготовка кадров: 15 500 специалистов по AI
На базе фонда «Сколково» создано Стратегическое агентство поддержки и формирования разработок AI (САПФИР). Агентство начало работу в начале 2025 года и координирует реализацию стратегии.

Действующие законы, затрагивающие AI

149-ФЗ «Об информации»

Федеральный закон № 149-ФЗ «Об информации, информационных технологиях и о защите информации» — базовый закон, регулирующий информационное пространство России. Он напрямую не упоминает AI, но применяется к AI-системам в части:

  • Распространение информации: AI-генерированный контент подчиняется тем же правилам, что и любой другой контент в интернете
  • Блокировка контента: Роскомнадзор может требовать удаления AI-контента, нарушающего законодательство
  • Ответственность за контент: вопрос о том, кто отвечает за контент, сгенерированный AI — пользователь, разработчик или оператор платформы — активно обсуждается

152-ФЗ «О персональных данных»

Закон 152-ФЗ критически важен для AI-разработчиков:

  • Локализация данных: персональные данные граждан России должны храниться на серверах, расположенных в РФ. С 1 июля 2025 года хранение в базах данных за пределами России запрещено
  • Согласие на обработку: обработка персональных данных с помощью AI-систем требует согласия субъекта данных (оформляется отдельным документом)
  • Обучение моделей: использование персональных данных для обучения нейросетей подпадает под действие закона
Большинство зарубежных AI-сервисов (ChatGPT, Claude, Gemini) обрабатывают данные на серверах за пределами России. Использование таких сервисов для обработки персональных данных россиян может нарушать 152-ФЗ. Это особенно актуально для корпоративного применения AI. Подробнее — в статье Персональные данные и AI в России.

Авторское право и AI (ГК РФ)

Вопрос авторского права на AI-контент в России юридически не урегулирован, но формируется судебная практика:

  • Статья 1228 ГК РФ: автором признаётся физическое лицо, чьим творческим трудом создан результат интеллектуальной деятельности. AI — не физическое лицо, значит автором быть не может
  • AI как инструмент: суды склоняются к тому, что если человек использовал AI как инструмент (задал промпт, отредактировал результат, сделал творческий вклад), произведение может охраняться авторским правом
  • «Чистая генерация»: контент, созданный нейросетью без существенного творческого вклада человека, по текущей практике не является объектом авторского права
Госдума планирует обсуждение поправок к статье 1259 ГК РФ, чтобы определить возможность правовой охраны материалов, созданных с помощью нейросетей. По состоянию на март 2026 года финальная редакция не принята. В 2025 году вступили в силу новые ГОСТы для продуктов, созданных с использованием AI (ГОСТ Р 71657-2024 для образования, ГОСТ Р 71476-2024 для терминологии).

Экспериментальные правовые режимы (ЭПР)

Экспериментальные правовые режимы (regulatory sandboxes) — главный инструмент России для тестирования AI-технологий. Суть: компании получают разрешение внедрять AI в конкретных сферах с временным освобождением от отдельных требований законодательства.

Как работает ЭПР:

  1. Компания подаёт заявку с описанием AI-технологии и сферы применения
  2. Правительство утверждает режим на ограниченный срок (обычно 3 года)
  3. Участник получает право отступать от отдельных законодательных норм
  4. По результатам эксперимента — решение о распространении новых правил на всю страну

Сферы, где работают ЭПР:

  • Беспилотный транспорт (Москва, Иннополис) — тестирование автономных такси и доставки
  • Телемедицина — AI-диагностика с ослаблением требований к очному приёму
  • Финансовые технологии — AI-скоринг, автоматические финансовые консультации

Ключевые законы:

  • 258-ФЗ (2021) — базовый закон об ЭПР в сфере цифровых инноваций
  • 123-ФЗ (2024) — обязательное страхование гражданской ответственности для участников ЭПР
  • 169-ФЗ (2025) — расширение ответственности за ущерб при тестировании AI, создание комиссии для рассмотрения инцидентов
Без ЭПР
Компания разработала AI-систему для медицинской диагностики, но не может её внедрить — существующее законодательство требует, чтобы диагноз ставил только врач. Годы ожидания изменения законов.
С ЭПР
Компания подаёт заявку на ЭПР, получает разрешение тестировать AI-диагностику в нескольких клиниках с обязательным страхованием ответственности. Врач подтверждает диагноз AI, но время диагностики сокращается в 3 раза.

Кодекс этики AI

Кодекс этики в сфере искусственного интеллекта — добровольный документ, принятый в октябре 2021 года. Разработан при участии более 500 экспертов из индустрии, науки и государства. К 2026 году к Кодексу присоединилось более 900 организаций, включая Сбер, Яндекс, Ростелеком, ВШЭ, Сколково и многие другие.

Ключевые принципы Кодекса:

  • Прозрачность и объяснимость — пользователь должен знать, что взаимодействует с AI
  • Безопасность — AI-системы не должны причинять вред
  • Недискриминация — AI не должен дискриминировать по полу, расе, возрасту, национальности
  • Ответственность — за действия AI отвечает конкретное лицо (разработчик, оператор)
  • Уважение к автономии человека — AI должен помогать человеку принимать решения, а не заменять его
Хотя Кодекс не имеет юридической силы, присоединение к нему становится де-факто стандартом для крупных компаний и организаций. Это влияет на репутацию, может учитываться при получении госконтрактов и участии в ЭПР.

Роскомнадзор и AI-контент

Роскомнадзор — федеральная служба, контролирующая информационное пространство в России — активно расширяет работу с AI-контентом:

  • Модерация контента: AI-контент, нарушающий законодательство (экстремизм, фейки, запрещённая информация), подлежит блокировке наравне с любым другим контентом
  • Маркировка AI-контента: Минцифры совместно с Роскомнадзором разрабатывает требования к обязательной маркировке контента, созданного с помощью AI
  • Дипфейки: обсуждается введение уголовной ответственности за создание и распространение «синтетического контента» без согласия изображённых или озвученных лиц
  • AI для мониторинга: Роскомнадзор тестирует использование нейросетей и LLM для автоматизации мониторинга интернет-контента

Законопроект об AI: что готовится

В 2025 году Госдума создала рабочую группу по разработке рамочного закона об искусственном интеллекте. Вот что известно:

Уже определено:

  • Юридическое определение AI — под ним предложено понимать «любую систему данных или программное обеспечение, способное обрабатывать информацию способом, напоминающим разумное поведение»
  • Правительство прорабатывает «гибкое» регулирование, которое затронет использование AI в чувствительных сферах (медицина, образование, правоохранение) и не будет распространяться на коммерческий сектор в целом

Обсуждается:

  • Обязательная маркировка AI-контента
  • Определение «российских нейросетей» (для целей импортозамещения и соответствия требованиям безопасности)
  • Регулирование использования AI в избирательных кампаниях (законопроект внесён в Госдуму в августе 2025)
  • Вопросы авторского права на AI-генерированный контент
По состоянию на март 2026 года рамочный закон об AI не принят. Информация в этом разделе отражает текущее состояние обсуждений и может измениться. Следите за обновлениями на сайтах Госдумы и Минцифры.

Сравнение подходов: Россия, ЕС, Китай

Жёсткость регулирования AI (условная шкала)
Китай — обязательные законы по сферам85%
ЕС (EU AI Act) — единый обязательный закон80%
Россия — стратегия + точечные законы40%
США — отраслевое саморегулирование25%
Шкала жёсткости — экспертная оценка на основе анализа нормативных актов, не официальный рейтинг.
АспектРоссияЕС (EU AI Act)Китай
Тип регулированияСтратегия + добровольный кодекс + точечные законыЕдиный обязательный законНесколько обязательных законов по сферам
Классификация по рискамНет формальной классификации4 категории рискаПо сферам применения
Штрафы за AIНет специальных штрафовДо 35 млн EUR / 7% выручкиШтрафы и блокировки
Генеративный AIОбсуждается, нет специальных требованийОтдельные требования к GPAIОбязательное лицензирование
Маркировка AI-контентаВ разработкеОбязательна (Статья 50)Обязательна
ЭкстерриториальностьНетДа (как GDPR)Частично
Персональные данные152-ФЗ, локализация в РФGDPRЗакон о защите персональных данных, локализация
Экспериментальные режимыРазвитая система ЭПРRegulatory sandboxes (планируются)Есть в отдельных зонах

Перспективы 2026-2027

На основе текущих трендов можно ожидать:

  1. Принятие рамочного закона об AI — определит основные понятия, распределение ответственности, базовые требования
  2. Обязательная маркировка AI-контента — вероятно, станет законодательным требованием
  3. Расширение ЭПР — новые сферы (образование, госуслуги, сельское хозяйство)
  4. Регулирование дипфейков — возможна уголовная ответственность за злонамеренное использование
  5. Развитие ГОСТ для AI — стандартизация качества и безопасности AI-систем
  6. Импортозамещение AI — стимулирование разработки российских LLM и инфраструктуры

Compliance-паттерны для разработчиков

Локализация данных

152-ФЗ требует, чтобы персональные данные россиян хранились на серверах в России. Для AI-приложений это означает:

ПромптАрхитектура с локализацией данных
// Паттерн: AI-сервис с локализацией ПД
// Вариант 1: Российский AI-провайдер
const client = new YandexGPT({
  apiKey: process.env.YANDEX_GPT_KEY,
  folderId: process.env.YANDEX_FOLDER_ID,
  // Данные не покидают РФ
});

// Вариант 2: Зарубежный AI через прокси с анонимизацией
async function safeAICall(userData: UserData, prompt: string) {
  // 1. Удалить/заменить ПД перед отправкой
  const anonymized = anonymizePersonalData(prompt, {
    removeNames: true,
    removePhones: true,
    removeEmails: true,
    removePassport: true,
    removeINN: true,
  });
  
  // 2. Отправить анонимизированный промпт
  const response = await openai.chat.completions.create({
    model: 'gpt-4o',
    messages: [{ role: 'user', content: anonymized.text }],
  });
  
  // 3. Восстановить ПД в ответе (если нужно)
  return deAnonymize(response.choices[0].message.content, anonymized.map);
}

// Вариант 3: Self-hosted модель
// Развернуть open-source LLM (Llama, Qwen) на серверах в РФ
const localLLM = new OllamaClient({
  host: 'http://gpu-server.internal:11434', // сервер в РФ
  model: 'llama3.1:70b',
});
Ответ модели

Три подхода к compliance: 1) Российский провайдер (YandexGPT, GigaChat) — самый простой. 2) Зарубежный AI с анонимизацией — допустим, если ПД не передаются за рубеж. 3) Self-hosted — полный контроль, данные не покидают периметр.

Маркировка AI-контента

Хотя обязательная маркировка ещё не принята, готовиться стоит уже сейчас:

// Метаданные для AI-генерированного контента
interface AIContentMetadata {
  generatedBy: 'ai' | 'human' | 'ai-assisted'
  model?: string           // 'yandexgpt-4' | 'gigachat-pro' | 'gpt-4o'
  timestamp: string        // ISO 8601
  humanReviewed: boolean   // прошёл ли ручную проверку
  modifications?: string   // описание человеческих правок
}

// HTTP-заголовки (проект стандарта)
// X-AI-Generated: true
// X-AI-Model: yandexgpt-4
// X-AI-Human-Reviewed: true

// HTML-метатег для веб-контента
// <meta name="ai-generated" content="true">
// <meta name="ai-model" content="yandexgpt-4">

Реализация модерации контента

Для соответствия 149-ФЗ и требованиям Роскомнадзора AI-сервисы должны фильтровать запрещённый контент:

ПромптМодерация AI-контента
// Проверка контента на соответствие российскому законодательству
async function moderateContent(content: string): Promise<ModerationResult> {
  const checks = await Promise.all([
    // 1. Проверка на экстремизм и терроризм
    checkExtremism(content),
    // 2. Проверка на запрещённую информацию (реестр Роскомнадзора)
    checkBlockedContent(content),
    // 3. Проверка на ПД (152-ФЗ)
    detectPersonalData(content),
    // 4. Проверка на фейковую информацию
    checkMisinformation(content),
  ]);
  
  return {
    allowed: checks.every(c => c.passed),
    violations: checks.filter(c => !c.passed),
  };
}

// Логирование для потенциальных проверок
async function logAIInteraction(input: string, output: string) {
  await db.insert(aiLogs).values({
    inputHash: sha256(input),   // хэш, не сырой текст
    outputHash: sha256(output),
    timestamp: new Date().toISOString(),
    model: 'yandexgpt-4',
    moderated: true,
    containsPII: false,
  });
}
Ответ модели

Минимальный набор проверок: экстремизм, запрещённый контент, ПД, дезинформация. Логирование — хэши вместо сырых данных для баланса между аудируемостью и защитой ПД.

Автоматизированная отчётность

Для участников ЭПР и крупных AI-систем может потребоваться отчётность:

// Шаблон отчёта для участника ЭПР
interface ELRReport {
  period: { from: string; to: string }
  system: {
    name: string
    version: string
    description: string
  }
  metrics: {
    totalRequests: number
    errorsCount: number
    incidentsCount: number
    userComplaints: number
  }
  incidents: Array<{
    date: string
    description: string
    impact: string
    resolution: string
    insuranceClaim: boolean  // 123-ФЗ
  }>
  dataProtection: {
    piiProcessed: boolean
    localizationCompliant: boolean  // 152-ФЗ
    consentObtained: boolean
  }
}
Если вы разрабатываете AI-продукт для российского рынка, начните с трёх вещей: 1) локализация данных (152-ФЗ), 2) модерация контента (149-ФЗ), 3) логирование взаимодействий. Эти требования уже действуют и не зависят от будущего закона об AI. Для международных продуктов учитывайте также EU AI Act.

Связанные статьи

Проверьте себя

1. Какой документ является основой AI-стратегии России?

2. Что такое экспериментальные правовые режимы (ЭПР) в контексте AI?

3. Какое требование 152-ФЗ напрямую касается AI-разработчиков?