AI-регулирование в России: стратегия, законы и перспективы
Национальная стратегия AI, 149-ФЗ, проекты законов — как Россия регулирует искусственный интеллект
Россия выбрала свой путь в регулировании искусственного интеллекта — не жёсткие запреты, как в EU AI Act, а гибкий подход: национальная стратегия развития, добровольный Кодекс этики, экспериментальные правовые режимы и точечные законопроекты. Единого «закона об AI» пока нет, но регулятивная база активно формируется. В этой статье разберём, что уже работает, что в процессе и чего ожидать в ближайшие годы.
Регулирование AI — это как правила дорожного движения для технологий. Без них каждый разработчик «ехал бы» по своим правилам: кто-то аккуратно, а кто-то создавал бы аварии. Россия сейчас прокладывает эту дорогу: ставит знаки, рисует разметку и тестирует правила на отдельных участках (экспериментальных режимах), прежде чем ввести их по всей стране.
Национальная стратегия (Указ № 490, обновлён в 2024): задаёт цели — рост ВВП от AI на 11,2 трлн руб. к 2030, суперкомпьютерная мощность 1 эксафлопс, уровень доверия граждан к AI — 80%.
Кодекс этики AI (2021): добровольный документ, подписанный Сбером, Яндексом, Ростелекомом, ВШЭ и ещё 900+ организациями. Закрепляет принципы: прозрачность, безопасность, недискриминация, ответственность.
152-ФЗ: персональные данные россиян должны храниться на серверах в России — это напрямую касается AI-систем, обрабатывающих пользовательские данные.
Экспериментальные правовые режимы: «песочницы», где компании тестируют AI-технологии (беспилотники, медицинская диагностика) с послаблениями от отдельных законов.
Плюсы
Гибкий подход — не тормозит инновации, даёт бизнесу время адаптироваться
Экспериментальные режимы позволяют тестировать AI-решения в реальных условиях
Добровольный кодекс этики создаёт культуру ответственного AI без штрафов
Фокус на развитие собственной AI-экосистемы (LLM, вычислительные мощности)
Минусы
Нет единого закона — правовая неопределённость для бизнеса
Добровольный кодекс не имеет юридической силы — нет ответственности за нарушение
Отсутствие классификации AI-систем по рискам (как в EU AI Act)
Вопросы авторского права на AI-контент не урегулированы
Обновлённая в 2024 году стратегия определяет конкретные целевые показатели:
Ключевые цели Национальной стратегии AI к 2030 (условная шкала)
Рост ВВП от AI — 11,2 трлн руб.90%
Расходы на AI — 850 млрд руб./год68%
Доверие граждан к AI — 80%80%
Готовность отраслей — 95%95%
Суперкомп. мощность — 1 Exaflops50%
Значения на диаграмме отражают относительные пропорции для наглядности, а не абсолютные числа. Фактические целевые показатели указаны в подписях и расшифрованы ниже.
Рост ВВП от AI: накопительный эффект 11,2 трлн руб. к 2030 году
Расходы организаций на AI: рост до 850 млрд руб. в год
Доверие граждан: целевой уровень 80%
Готовность отраслей к внедрению AI: с 12% (2022) до 95% (2030)
Суперкомпьютерные мощности: от 0,073 Exaflops (2022) до минимум 1 Exaflops
Подготовка кадров: 15 500 специалистов по AI
На базе фонда «Сколково» создано Стратегическое агентство поддержки и формирования разработок AI (САПФИР). Агентство начало работу в начале 2025 года и координирует реализацию стратегии.
Федеральный закон № 149-ФЗ «Об информации, информационных технологиях и о защите информации» — базовый закон, регулирующий информационное пространство России. Он напрямую не упоминает AI, но применяется к AI-системам в части:
Распространение информации: AI-генерированный контент подчиняется тем же правилам, что и любой другой контент в интернете
Блокировка контента: Роскомнадзор может требовать удаления AI-контента, нарушающего законодательство
Ответственность за контент: вопрос о том, кто отвечает за контент, сгенерированный AI — пользователь, разработчик или оператор платформы — активно обсуждается
Закон 152-ФЗ критически важен для AI-разработчиков:
Локализация данных: персональные данные граждан России должны храниться на серверах, расположенных в РФ. С 1 июля 2025 года хранение в базах данных за пределами России запрещено
Согласие на обработку: обработка персональных данных с помощью AI-систем требует согласия субъекта данных (оформляется отдельным документом)
Обучение моделей: использование персональных данных для обучения нейросетей подпадает под действие закона
Большинство зарубежных AI-сервисов (ChatGPT, Claude, Gemini) обрабатывают данные на серверах за пределами России. Использование таких сервисов для обработки персональных данных россиян может нарушать 152-ФЗ. Это особенно актуально для корпоративного применения AI. Подробнее — в статье Персональные данные и AI в России.
Вопрос авторского права на AI-контент в России юридически не урегулирован, но формируется судебная практика:
Статья 1228 ГК РФ: автором признаётся физическое лицо, чьим творческим трудом создан результат интеллектуальной деятельности. AI — не физическое лицо, значит автором быть не может
AI как инструмент: суды склоняются к тому, что если человек использовал AI как инструмент (задал промпт, отредактировал результат, сделал творческий вклад), произведение может охраняться авторским правом
«Чистая генерация»: контент, созданный нейросетью без существенного творческого вклада человека, по текущей практике не является объектом авторского права
Госдума планирует обсуждение поправок к статье 1259 ГК РФ, чтобы определить возможность правовой охраны материалов, созданных с помощью нейросетей. По состоянию на март 2026 года финальная редакция не принята. В 2025 году вступили в силу новые ГОСТы для продуктов, созданных с использованием AI (ГОСТ Р 71657-2024 для образования, ГОСТ Р 71476-2024 для терминологии).
Экспериментальные правовые режимы (regulatory sandboxes) — главный инструмент России для тестирования AI-технологий. Суть: компании получают разрешение внедрять AI в конкретных сферах с временным освобождением от отдельных требований законодательства.
Как работает ЭПР:
Компания подаёт заявку с описанием AI-технологии и сферы применения
Правительство утверждает режим на ограниченный срок (обычно 3 года)
Участник получает право отступать от отдельных законодательных норм
По результатам эксперимента — решение о распространении новых правил на всю страну
Сферы, где работают ЭПР:
Беспилотный транспорт (Москва, Иннополис) — тестирование автономных такси и доставки
Телемедицина — AI-диагностика с ослаблением требований к очному приёму
Финансовые технологии — AI-скоринг, автоматические финансовые консультации
Ключевые законы:
258-ФЗ (2021) — базовый закон об ЭПР в сфере цифровых инноваций
123-ФЗ (2024) — обязательное страхование гражданской ответственности для участников ЭПР
169-ФЗ (2025) — расширение ответственности за ущерб при тестировании AI, создание комиссии для рассмотрения инцидентов
Без ЭПР
Компания разработала AI-систему для медицинской диагностики, но не может её внедрить — существующее законодательство требует, чтобы диагноз ставил только врач. Годы ожидания изменения законов.
С ЭПР
Компания подаёт заявку на ЭПР, получает разрешение тестировать AI-диагностику в нескольких клиниках с обязательным страхованием ответственности. Врач подтверждает диагноз AI, но время диагностики сокращается в 3 раза.
Кодекс этики в сфере искусственного интеллекта — добровольный документ, принятый в октябре 2021 года. Разработан при участии более 500 экспертов из индустрии, науки и государства. К 2026 году к Кодексу присоединилось более 900 организаций, включая Сбер, Яндекс, Ростелеком, ВШЭ, Сколково и многие другие.
Ключевые принципы Кодекса:
Прозрачность и объяснимость — пользователь должен знать, что взаимодействует с AI
Безопасность — AI-системы не должны причинять вред
Недискриминация — AI не должен дискриминировать по полу, расе, возрасту, национальности
Ответственность — за действия AI отвечает конкретное лицо (разработчик, оператор)
Уважение к автономии человека — AI должен помогать человеку принимать решения, а не заменять его
Хотя Кодекс не имеет юридической силы, присоединение к нему становится де-факто стандартом для крупных компаний и организаций. Это влияет на репутацию, может учитываться при получении госконтрактов и участии в ЭПР.
Роскомнадзор — федеральная служба, контролирующая информационное пространство в России — активно расширяет работу с AI-контентом:
Модерация контента: AI-контент, нарушающий законодательство (экстремизм, фейки, запрещённая информация), подлежит блокировке наравне с любым другим контентом
Маркировка AI-контента: Минцифры совместно с Роскомнадзором разрабатывает требования к обязательной маркировке контента, созданного с помощью AI
Дипфейки: обсуждается введение уголовной ответственности за создание и распространение «синтетического контента» без согласия изображённых или озвученных лиц
AI для мониторинга: Роскомнадзор тестирует использование нейросетей и LLM для автоматизации мониторинга интернет-контента
В 2025 году Госдума создала рабочую группу по разработке рамочного закона об искусственном интеллекте. Вот что известно:
Уже определено:
Юридическое определение AI — под ним предложено понимать «любую систему данных или программное обеспечение, способное обрабатывать информацию способом, напоминающим разумное поведение»
Правительство прорабатывает «гибкое» регулирование, которое затронет использование AI в чувствительных сферах (медицина, образование, правоохранение) и не будет распространяться на коммерческий сектор в целом
Обсуждается:
Обязательная маркировка AI-контента
Определение «российских нейросетей» (для целей импортозамещения и соответствия требованиям безопасности)
Регулирование использования AI в избирательных кампаниях (законопроект внесён в Госдуму в августе 2025)
Вопросы авторского права на AI-генерированный контент
По состоянию на март 2026 года рамочный закон об AI не принят. Информация в этом разделе отражает текущее состояние обсуждений и может измениться. Следите за обновлениями на сайтах Госдумы и Минцифры.
152-ФЗ требует, чтобы персональные данные россиян хранились на серверах в России. Для AI-приложений это означает:
ПромптАрхитектура с локализацией данных
// Паттерн: AI-сервис с локализацией ПД
// Вариант 1: Российский AI-провайдер
const client = new YandexGPT({
apiKey: process.env.YANDEX_GPT_KEY,
folderId: process.env.YANDEX_FOLDER_ID,
// Данные не покидают РФ
});
// Вариант 2: Зарубежный AI через прокси с анонимизацией
async function safeAICall(userData: UserData, prompt: string) {
// 1. Удалить/заменить ПД перед отправкой
const anonymized = anonymizePersonalData(prompt, {
removeNames: true,
removePhones: true,
removeEmails: true,
removePassport: true,
removeINN: true,
});
// 2. Отправить анонимизированный промпт
const response = await openai.chat.completions.create({
model: 'gpt-4o',
messages: [{ role: 'user', content: anonymized.text }],
});
// 3. Восстановить ПД в ответе (если нужно)
return deAnonymize(response.choices[0].message.content, anonymized.map);
}
// Вариант 3: Self-hosted модель
// Развернуть open-source LLM (Llama, Qwen) на серверах в РФ
const localLLM = new OllamaClient({
host: 'http://gpu-server.internal:11434', // сервер в РФ
model: 'llama3.1:70b',
});
Ответ модели
Три подхода к compliance: 1) Российский провайдер (YandexGPT, GigaChat) — самый простой. 2) Зарубежный AI с анонимизацией — допустим, если ПД не передаются за рубеж. 3) Self-hosted — полный контроль, данные не покидают периметр.
Для соответствия 149-ФЗ и требованиям Роскомнадзора AI-сервисы должны фильтровать запрещённый контент:
ПромптМодерация AI-контента
// Проверка контента на соответствие российскому законодательству
async function moderateContent(content: string): Promise<ModerationResult> {
const checks = await Promise.all([
// 1. Проверка на экстремизм и терроризм
checkExtremism(content),
// 2. Проверка на запрещённую информацию (реестр Роскомнадзора)
checkBlockedContent(content),
// 3. Проверка на ПД (152-ФЗ)
detectPersonalData(content),
// 4. Проверка на фейковую информацию
checkMisinformation(content),
]);
return {
allowed: checks.every(c => c.passed),
violations: checks.filter(c => !c.passed),
};
}
// Логирование для потенциальных проверок
async function logAIInteraction(input: string, output: string) {
await db.insert(aiLogs).values({
inputHash: sha256(input), // хэш, не сырой текст
outputHash: sha256(output),
timestamp: new Date().toISOString(),
model: 'yandexgpt-4',
moderated: true,
containsPII: false,
});
}
Ответ модели
Минимальный набор проверок: экстремизм, запрещённый контент, ПД, дезинформация. Логирование — хэши вместо сырых данных для баланса между аудируемостью и защитой ПД.
Если вы разрабатываете AI-продукт для российского рынка, начните с трёх вещей: 1) локализация данных (152-ФЗ), 2) модерация контента (149-ФЗ), 3) логирование взаимодействий. Эти требования уже действуют и не зависят от будущего закона об AI. Для международных продуктов учитывайте также EU AI Act.