AI в медицине: диагностика, ассистенты врачей, этика

AI в здравоохранении: медицинская диагностика, клинические ассистенты, анализ медицинских изображений, drug discovery, этические вопросы и регулирование

AI проникает в медицину быстрее, чем в любую другую профессиональную сферу — и это неслучайно. Радиолог смотрит сотни снимков в день и к вечеру устаёт; нейросеть не устаёт никогда. Онколог может пропустить редкую картину рака кожи; алгоритм, обученный на миллионах дерматологических фотографий, её распознает. Med-PaLM 2 от Google сдаёт экзамен USMLE на уровне врача-эксперта. AlphaFold 3 предсказывает структуру любого белка за секунды — задача, которую учёные решали годами. При этом AI не заменяет врача: он усиливает его, берёт на себя рутину и позволяет сосредоточиться на том, что требует человеческого суждения.

Представьте, что у вас есть коллега, который прочитал все медицинские учебники и статьи, никогда не ошибается от усталости и всегда готов проверить вашу работу. Это примерно то, что AI делает для врачей: не принимает решения вместо них, а помогает не пропустить ничего важного. Как спелл-чекер для текста — только для диагнозов.

Суть за 2 минуты

AI в медицине решает конкретные проблемы: дефицит специалистов, человеческую усталость, объём данных, с которым невозможно справиться вручную.

Ключевые применения сегодня:

ОбластьЧто делает AIПример
Диагностика изображенийНаходит патологии на снимкахGoogle Health: рак груди на маммограммах
Клиническая поддержкаПодсказывает диагноз, лечениеEpic + GPT-4, Hippocratic AI
Медицинские LLMОтвечает на клинические вопросыMed-PaLM 2, GPT-4 для врачей
Drug discoveryПроектирует молекулы лекарствAlphaFold 3, Insilico Medicine
Пациентские ассистентыСимптом-чекер, психологическая поддержкаAda Health, Woebot
Клинические заметкиТранскрибирует и структурирует визитNuance DAX, Suki AI

Продукты, которые уже в клиниках:

  • Viz.ai — AI-триаж инсультов, уведомляет нейрохирурга за минуты
  • Paige.ai — анализ биопсий при онкологии (одобрен FDA)
  • Третье Мнение — российский сервис анализа медицинских изображений
  • Сбер Здоровье — AI-ассистент для телемедицины
ПромптВрач → AI: дифференциальный диагноз
Пациент, 45 лет, мужчина. Жалобы: боль в грудной клетке, усиливающаяся при вдохе, субфебрилитет 37.4°C, кашель с небольшим количеством мокроты 5 дней. Курит 20 лет. SpO2 96%. Перечисли наиболее вероятные диагнозы в порядке убывания вероятности и что нужно исключить первостепенно.
Ответ модели

Дифференциальный ряд:

  1. Внебольничная пневмония (плевральная боль, субфебрилитет, кашель — классика)
  2. Плеврит (боль при дыхании — ключевой симптом)
  3. ТЭЛА — исключить первостепенно: D-димер, КТ-ангиография
  4. Обострение ХОБЛ (курение 20 лет — фактор риска)
  5. Острый бронхит

Первоочередно: рентген ОГК, ОАК, D-димер. При SpO2 < 94% или ЧД > 20 — госпитализация.

Диагностика по медицинским изображениям

Радиология — область, где AI достиг наиболее впечатляющих результатов. Причина проста: это задача распознавания паттернов на больших данных, а нейросети в этом превосходят человека по скорости и стабильности.

Что умеют сделать AI-системы

Рентген грудной клетки. CheXNet от Stanford (2017) стал отправной точкой: сеть обнаруживала пневмонию на рентгенограммах точнее, чем среднестатистический радиолог. Сегодня системы вроде Google's CXR Foundation анализируют снимок за секунды и маркируют зоны патологий. В клиниках Индии и Африки, где не хватает радиологов, такие системы работают как первичный фильтр.

Маммография и рак груди. Google Health в 2020 году опубликовал исследование: AI снижал количество ложноположительных результатов на 5,7% и ложноотрицательных на 9,4% по сравнению с одним радиологом. В Великобритании система уже проходит клинические испытания как «второй читатель» для маммограмм.

КТ и МРТ. Viz.ai анализирует КТ-ангиографии для выявления инсульта и отправляет мгновенное уведомление нейрохирургу. В крупных американских больницах это сократило время от снимка до вмешательства с нескольких часов до 30-40 минут. При инсульте каждая минута — это 2 миллиона нейронов.

Дерматология. Google's DermAssist и аналоги классифицируют кожные высыпания по фотографиям. В исследовании 2018 года система от Google/Stanford распознавала меланому точнее, чем 21 дерматолог. Это критично для регионов с дефицитом специалистов.

Патоморфология. Paige.ai — первый AI-продукт для цифровой патологии, одобренный FDA. Алгоритм анализирует гистологические срезы биопсий и выявляет рак простаты с чувствительностью 97%.

Российский контекст

«Третье Мнение» — российская компания, специализирующаяся на AI-анализе медицинских изображений. Система анализирует КТ лёгких, маммограммы, флюорографию. Используется в сети московских поликлиник и ряде региональных больниц. В 2020-2021 годах сыграла роль при массовой диагностике COVID-19 по КТ.

Лаборатория Касперского (ранее AILab) и Сбер инвестируют в медицинские AI-решения. Московский городской проект AI в радиологии к 2024 году охватил большинство городских больниц.

Клинические ассистенты и медицинские LLM

Медицинские языковые модели — отдельная категория. Обычный ChatGPT знает медицину, но не оптимизирован для клинических сценариев. Специализированные модели обучены на медицинских текстах, клинических протоколах, данных историй болезни.

Med-PaLM 2 (Google)

Med-PaLM 2 — медицинская версия PaLM 2, обученная на медицинских вопросах, учебниках и научных статьях. Ключевой результат: модель сдаёт экзамен USMLE Step 1-3 (лицензирование врачей в США) на уровне «эксперт» — выше проходного балла и в одном ряду с реальными врачами.

Тест Turing для медицины: слепое исследование 2023 года показало, что врачи не могли стабильно отличить ответы Med-PaLM 2 от ответов коллег-людей на сложные клинические вопросы. При этом важно понимать: экзамен — это одно, реальная клиника — другое.

GPT-4 в медицине

Microsoft и OpenAI тестируют GPT-4 как клинического ассистента через интеграцию с Epic (крупнейшая медицинская информационная система в США). Сценарии:

  • Генерация резюме истории болезни перед визитом
  • Черновик назначений и клинических заметок
  • Ответы на вопросы пациентов (с проверкой врача)
  • Поиск по медицинской литературе для принятия решений

Ambient Clinical Intelligence: конец ручного документирования

Nuance DAX (Microsoft) и Suki AI решают одну из главных болей врачей: медицинскую документацию. Врач тратит 40-60% рабочего времени на ввод данных в электронные карты — часто дома, после смены.

Без техники
Традиционный приём: • Врач видит пациента 15 минут • Из них 8 минут смотрит в экран и печатает • После смены — 2-3 часа документирования дома • Пациент чувствует, что врач «не слушает» • Burnout: 63% врачей США сообщают о профессиональном выгорании
С техникой
С Ambient AI (Nuance DAX): • Врач разговаривает с пациентом, не отвлекаясь • AI в фоне транскрибирует и структурирует визит • После приёма — черновик заметки готов за 30 секунд • Врач проверяет и утверждает за 2-3 минуты • В исследованиях: -50% времени на документирование, рост удовлетворённости пациентов

Drug Discovery: AI ускоряет создание лекарств

Разработка нового препарата традиционно занимает 10-15 лет и стоит $1-2 млрд. AI атакует несколько этапов этого пайплайна.

AlphaFold: революция в структурной биологии

AlphaFold 2 (DeepMind, 2020) предсказал трёхмерные структуры почти всех известных белков — 200 миллионов структур. До этого определение структуры одного белка методом рентгеновской кристаллографии занимало годы. Это фундаментальный сдвиг: понимание формы белка ключево для разработки препаратов, которые к нему «присоединяются».

AlphaFold 3 (2024) пошёл дальше — предсказывает взаимодействие белков с малыми молекулами (потенциальными лекарствами), ДНК, РНК. Это напрямую применимо в drug discovery.

AI-компании в drug discovery

Insilico Medicine — первая компания, которая вывела AI-разработанный препарат в клинические испытания. Молекула INS018_055 для лечения идиопатического лёгочного фиброза: от идеи до кандидата — 18 месяцев вместо обычных 4-5 лет.

Isomorphic Labs (дочерняя компания Alphabet) — коллаборации с Eli Lilly и Novartis на $3 млрд для AI-driven разработки лекарств.

Recursion Pharmaceuticals использует роботизированные лаборатории + AI для скрининга миллионов соединений: данные о каждом опыте обучают следующую итерацию модели.

AI-ассистенты для пациентов

Симптом-чекеры

Ada Health — приложение-симптомчекер, которое собирает анамнез через диалог и предлагает вероятные диагнозы. Используется в 130+ странах, более 11 млн оценок симптомов. Исследование 2019 года: Ada включала правильный диагноз в топ-5 в 91% случаев — лучше большинства других симптомчекеров того времени.

Buoy Health — используется страховыми компаниями и работодателями в США. Помогает пациенту понять, нужна ли скорая помощь, телемедицинский визит или достаточно домашнего лечения. Снижает число ненужных обращений в ER.

Ментальное здоровье

Woebot — чат-бот на основе когнитивно-поведенческой терапии (КПТ). Ведёт ежедневные беседы, помогает отслеживать настроение, учит техникам КПТ. В рандомизированном исследовании снижал симптомы тревоги и депрессии у студентов за 2 недели. Важная оговорка: это не замена терапевта, а инструмент для людей, у которых нет доступа к профессиональной помощи.

Wysa — аналогичный продукт, используется NHS (Великобритания) и корпоративными программами помощи сотрудникам.

Критика: ментальные чат-боты подвергаются критике за недостаточную безопасность при суицидальных мыслях и риск «имитации терапии» без реальной пользы. Регулирование этой области пока не успевает за рынком.

Этика AI в медицине

Медицина — сфера с нулевой терпимостью к ошибкам. Этические проблемы AI здесь острее, чем в любой другой индустрии.

Предвзятость алгоритмов (Bias)

Медицинские AI-системы обучаются на исторических данных — а исторические данные отражают существующее неравенство в здравоохранении. Конкретный пример: популярный алгоритм распределения ресурсов в системе здравоохранения США (исследование Science, 2019) систематически занижал потребности чёрных пациентов, потому что был обучён на данных о расходах — а на здравоохранение чёрных пациентов исторически тратилось меньше денег.

Дерматологические AI-модели хуже работают на тёмной коже, потому что датасеты дерматологических атласов исторически содержат меньше таких снимков. Система, которая пропускает меланому у пациентов с тёмной кожей в 2 раза чаще — это не просто технический баг, это системное неравенство.

Ответственность: кто виноват в ошибке AI?

Если врач следовал рекомендации AI и пациент пострадал — кто несёт ответственность: врач, производитель AI, больница? Пока чёткого ответа нет. Большинство FDA-одобренных медицинских AI-устройств продаются с оговоркой: финальное решение принимает врач. Но на практике врач с перегруженным расписанием склонён доверять системе.

Плюсы

  • Масштаб: AI-диагностика доступна там, где нет специалистов (Африка, сельская Россия)
  • Последовательность: AI не устаёт и не пропускает детали из-за стресса
  • Скорость: анализ снимка за секунды вместо часов
  • Drug discovery: сокращение цикла разработки с 10 лет до 2-3
  • Документирование: врач освобождается от рутины для живого контакта с пациентом

Минусы

  • Предвзятость: обучен на данных, отражающих неравенство
  • Чёрный ящик: сложно объяснить, почему AI поставил именно этот диагноз
  • Liability gap: неясно, кто отвечает за ошибку AI
  • Дескиллинг: врачи могут терять навыки при чрезмерной зависимости от AI
  • Приватность: медицинские данные — самые чувствительные; утечки катастрофичны

Информированное согласие

Пациент должен знать, что его данные обрабатываются AI? Что диагноз поставлен с участием алгоритма? В большинстве стран пока нет чёткого регулирования этого вопроса. Ряд экспертов считает, что пациент имеет право потребовать «объяснения от человека», а не от алгоритма.

Объяснимость (Explainability)

Врач должен понимать, почему AI поставил именно этот диагноз — иначе он не может ни доверять, ни перепроверить. Тепловые карты (Grad-CAM) помогают визуализировать, на какие зоны снимка смотрела сеть. Но для текстовых LLM объяснимость гораздо сложнее — это активная область исследований.

Регулирование

FDA (США)

FDA регулирует медицинские AI как программные медицинские устройства (SaMD). С 2017 года одобрено более 500 AI/ML-алгоритмов (большинство — в радиологии). Ключевой документ — «Action Plan for AI/ML-Based SaMD» (2021): проблема в том, что AI постоянно обучается, а традиционная процедура одобрения рассчитана на статичные устройства.

EU AI Act (2024)

Медицинские AI-системы для диагностики и лечения классифицируются как высокорискованные (High-Risk). Требования: прозрачность, регистрация в EU Database, оценка рисков, человеческий надзор. Системы, принимающие автономные решения без врача, фактически запрещены в клиническом применении.

Россия

Российское законодательство отстаёт от практики. Эксперимент по AI в здравоохранении Москвы (2020-2022) проходил в рамках специального регуляторного sandbox. Росздравнадзор регулирует медицинские изделия, но специфического AI-регулирования в медицине пока нет. Минздрав работает над стандартами с 2022 года.

Ни один медицинский AI в мире не одобрен как автономный диагностический инструмент без участия врача. Все существующие системы — это инструменты поддержки принятия решений (Clinical Decision Support). Финальная ответственность всегда остаётся за врачом. Это не юридическая тонкость — это принципиальная позиция регуляторов по всему миру.

Архитектура клинического AI-ассистента

Если вы строите медицинский AI-продукт, необходимо учитывать специфические требования: безопасность данных, объяснимость, граничные случаи и соответствие регуляторным требованиям.

Ключевые принципы для медицинских LLM

┌────────────────────────────────────────────────────────┐
│              Клинический AI-ассистент                  │
│                                                        │
│  ┌──────────┐   ┌──────────────┐   ┌──────────────┐   │
│  │  Запрос  │──▶│  Guardrails  │──▶│  Medical LLM │   │
│  │  врача   │   │  (scope +    │   │  (GPT-4 /    │   │
│  └──────────┘   │  safety)     │   │  Med-PaLM)   │   │
│                 └──────────────┘   └──────┬───────┘   │
│                                           │            │
│  ┌──────────────────────────────┐   ┌─────▼──────┐    │
│  │  RAG: медицинская база       │   │  Ответ +   │    │
│  │  (UpToDate / клин. гайды /  │──▶│  citations │    │
│  │   внутренние протоколы)      │   │  + disclaimer│   │
│  └──────────────────────────────┘   └────────────┘    │
│                                                        │
│  ┌──────────────────────────────────────────────────┐  │
│  │  Audit Log: все запросы и ответы (HIPAA/GDPR)   │  │
│  └──────────────────────────────────────────────────┘  │
└────────────────────────────────────────────────────────┘

Системный промпт для клинического ассистента

CLINICAL_ASSISTANT_PROMPT = """Ты клинический AI-ассистент для врачей.

ОБЯЗАТЕЛЬНЫЕ ПРАВИЛА:
1. Ты инструмент поддержки принятия решений. Финальный диагноз и лечение — всегда решение врача.
2. Не давай советов напрямую пациентам. Ты работаешь с медицинскими специалистами.
3. При высокой неопределённости явно сообщай об ограничениях своих рекомендаций.
4. Всегда ссылайся на источники: клинические руководства, протоколы, исследования.
5. Для неотложных состояний (сепсис, ТЭЛА, инсульт, ОКС) — всегда подчёркивай срочность.
6. Не рассчитан для применения в педиатрии без дополнительной валидации.

ФОРМАТ ОТВЕТОВ:
- Структурированно: дифференциальный ряд, обследование, лечение
- Дозировки — с диапазонами и предупреждениями (почечная/печёночная недостаточность)
- В конце: «Рекомендуется верификация по актуальным клиническим руководствам»

Специализация пользователя: {specialty}
Контекст клиники: {clinic_context}
"""

import anthropic
import hashlib
import json
import logging
from datetime import datetime

logger = logging.getLogger("clinical-ai")


def clinical_query(
    question: str,
    specialty: str,
    clinic_context: str,
    user_id: str,
    conversation_history: list[dict],
) -> dict:
    """
    Query clinical AI assistant with full audit logging.
    HIPAA-compliant: no PHI in logs, only hashed user_id.
    """
    client = anthropic.Anthropic()

    system = CLINICAL_ASSISTANT_PROMPT.format(
        specialty=specialty,
        clinic_context=clinic_context,
    )

    messages = conversation_history + [
        {"role": "user", "content": question}
    ]

    response = client.messages.create(
        model="claude-sonnet-4-20250514",
        max_tokens=2048,
        system=system,
        messages=messages,
    )

    answer = response.content[0].text

    # Audit log — без PHI (personal health information)
    _audit_log(
        user_id_hash=hashlib.sha256(user_id.encode()).hexdigest()[:16],
        question_hash=hashlib.sha256(question.encode()).hexdigest()[:16],
        specialty=specialty,
        tokens_used=response.usage.input_tokens + response.usage.output_tokens,
    )

    return {
        "answer": answer,
        "model": response.model,
        "disclaimer": "Инструмент поддержки принятия решений. Не заменяет клиническое суждение врача.",
    }


def _audit_log(**kwargs) -> None:
    """Write audit record for HIPAA/GDPR compliance."""
    record = {"timestamp": datetime.utcnow().isoformat(), **kwargs}
    logger.info(json.dumps(record))

Работа с медицинскими данными: HIPAA и GDPR

# Деидентификация перед отправкой в LLM API
import re


# Паттерны для деидентификации (Safe Harbor метод HIPAA)
PHI_PATTERNS = [
    (r"\b\d{3}-\d{2}-\d{4}\b", "[SSN]"),              # Social Security Number
    (r"\b\d{2}\.\d{2}\.\d{4}\b", "[DATE]"),            # Дата рождения (РФ-формат)
    (r"\b[A-ZА-Я][a-zа-я]+ [A-ZА-Я][a-zа-я]+\b", "[NAME]"),  # Имя Фамилия
    (r"\+7[\s-]?\(?\d{3}\)?[\s-]?\d{3}[\s-]?\d{2}[\s-]?\d{2}", "[PHONE]"),  # RU phone
    (r"\b\d{6,}\b", "[ID]"),                           # Номер истории болезни
]


def deidentify(text: str) -> str:
    """Remove PHI from clinical text before sending to external API."""
    for pattern, replacement in PHI_PATTERNS:
        text = re.sub(pattern, replacement, text)
    return text


def prepare_clinical_context(patient_data: dict) -> str:
    """
    Prepare deidentified clinical context for LLM.
    Never pass raw patient records to external APIs.
    """
    # Извлекаем только клинически релевантные данные
    clinical_summary = f"""
Возраст: {patient_data.get('age')} лет
Пол: {patient_data.get('gender')}
Диагноз при поступлении: {patient_data.get('admission_diagnosis')}
Анамнез: {deidentify(patient_data.get('history', ''))}
Текущие лекарства: {', '.join(patient_data.get('medications', []))}
Аллергии: {', '.join(patient_data.get('allergies', []))}
Последние анализы: {patient_data.get('lab_summary', 'нет данных')}
"""
    return clinical_summary.strip()

Метрики качества для медицинского AI

Стандартные метрики (accuracy, F1) недостаточны для медицины. Нужны специфические клинические метрики.

from dataclasses import dataclass, field


@dataclass
class ClinicalEvalMetrics:
    """Метрики оценки медицинского AI-ассистента."""

    # Диагностические метрики
    sensitivity: float = 0.0       # Чувствительность: доля истинно больных, выявленных AI
    specificity: float = 0.0       # Специфичность: доля здоровых, корректно исключённых
    ppv: float = 0.0               # Positive Predictive Value: точность положительного результата
    npv: float = 0.0               # Negative Predictive Value: точность отрицательного результата

    # Клинические метрики
    top1_accuracy: float = 0.0     # Правильный диагноз на первом месте
    top3_accuracy: float = 0.0     # Правильный диагноз в топ-3
    critical_miss_rate: float = 0.0  # % пропущенных критических состояний

    # Метрики безопасности
    hallucination_rate: float = 0.0  # Доля ответов с неверными фактами
    dangerous_advice_rate: float = 0.0  # % ответов с потенциально опасными рекомендациями
    disclaimer_compliance: float = 0.0  # % ответов с корректным дисклеймером

    # Для оценки требуется clinical ground truth
    notes: list[str] = field(default_factory=list)


def evaluate_differential_diagnosis(
    predicted: list[str],
    ground_truth: str,
    critical_conditions: list[str],
) -> dict:
    """
    Evaluate quality of differential diagnosis list.

    Args:
        predicted: список диагнозов от AI (упорядочен по убыванию вероятности)
        ground_truth: подтверждённый диагноз
        critical_conditions: список критических состояний (ТЭЛА, ОИМ, инсульт и т.д.)
    """
    top1 = predicted[0].lower() == ground_truth.lower() if predicted else False
    top3 = ground_truth.lower() in [d.lower() for d in predicted[:3]]

    # Критически важно: не пропустить жизнеугрожающие состояния
    is_critical = ground_truth.lower() in [c.lower() for c in critical_conditions]
    missed_critical = is_critical and not top3

    return {
        "top1_correct": top1,
        "top3_correct": top3,
        "missed_critical": missed_critical,
        "rank": next(
            (i + 1 for i, d in enumerate(predicted) if d.lower() == ground_truth.lower()),
            None,
        ),
    }

Построение медицинского RAG

Медицинский ассистент без актуальной базы знаний опасен — LLM может выдать устаревшие рекомендации или параметры дозировок.

# Источники для медицинской базы знаний
MEDICAL_KNOWLEDGE_SOURCES = {
    "clinical_guidelines": [
        "Клинические рекомендации МЗ РФ",   # minzdrav.gov.ru
        "UpToDate",                           # uptodate.com (платный)
        "BMJ Best Practice",
        "WHO Essential Medicines",
    ],
    "drug_databases": [
        "ГРЛС (РФ)",                          # grls.rosminzdrav.ru
        "RxNorm (США)",
        "DrugBank",
    ],
    "literature": [
        "PubMed / MEDLINE",
        "Cochrane Reviews",
        "ClinicalTrials.gov",
    ],
}


from openai import OpenAI


def index_clinical_document(
    text: str,
    source: str,
    doc_type: str,
    specialty: str,
    version_date: str,
    vector_store,  # Qdrant / pgvector / Chroma
) -> None:
    """
    Index a clinical document with rich metadata for filtered retrieval.
    Metadata is critical: an outdated guideline can be harmful.
    """
    oai = OpenAI()
    embedding = oai.embeddings.create(
        model="text-embedding-3-large",
        input=text,
    ).data[0].embedding

    metadata = {
        "source": source,
        "doc_type": doc_type,       # guideline | drug_info | case_study
        "specialty": specialty,
        "version_date": version_date,
        "indexed_at": datetime.utcnow().isoformat(),
    }

    vector_store.upsert(
        collection_name="medical_knowledge",
        points=[{
            "id": hashlib.md5(text.encode()).hexdigest(),
            "vector": embedding,
            "payload": metadata,
        }],
    )


def retrieve_for_clinical_query(
    query: str,
    specialty: str,
    vector_store,
    top_k: int = 5,
) -> list[dict]:
    """Retrieve relevant clinical knowledge with specialty filter."""
    oai = OpenAI()
    query_embedding = oai.embeddings.create(
        model="text-embedding-3-large",
        input=query,
    ).data[0].embedding

    results = vector_store.search(
        collection_name="medical_knowledge",
        query_vector=query_embedding,
        query_filter={"specialty": {"$in": [specialty, "general"]}},
        limit=top_k,
    )

    return [
        {
            "text": r.payload.get("text"),
            "source": r.payload.get("source"),
            "version_date": r.payload.get("version_date"),
            "score": r.score,
        }
        for r in results
    ]
Самая частая ошибка при создании медицинского AI — недооценка регуляторной части. Технически блестящая система, которая не прошла правильный regulatory pathway, не может использоваться в клинике. Заложите 30-40% бюджета и времени на compliance, валидацию и документацию — это не накладные расходы, это часть продукта.

Проверьте себя

Проверьте себя

1. Почему медицинские AI-системы часто хуже работают на пациентах с тёмной кожей?

2. Что такое Ambient Clinical Intelligence (как у Nuance DAX)?

3. Почему Med-PaLM 2 сдаёт USMLE на уровне эксперта, но FDA не одобряет AI как автономного диагноста?

Связанные темы

  • AI Red Teaming — тестирование безопасности AI-систем, включая медицинские
  • Structured Outputs — JSON-ответы для клинических данных
  • RAG: основы — как подключить медицинскую базу знаний к AI-ассистенту
  • AI Safety и Alignment — этические основы безопасного AI
  • EU AI Act — регулирование высокорискованных AI-систем

Источники