
В прямом эфире AM Live разберём, как встроить безопасность в жизненный цикл ИИ: от защиты данных и моделей до мониторинга атак в продакшене. Покажем реальные примеры adversarial-атак и poisoning, обсудим, как компании выстраивают процессы MLSecOps, какие инструменты работают сегодня и как избежать типичных ошибок. Только практические кейсы, честный анализ и опыт экспертов, которые уже защищают ИИ-системы в реальных проекта.
- Основы MLSecOps и картина угроз
- Простыми словами: что такое MLSecOps и зачем он появился?
- Чем MLSecOps отличается от MLOps/DevSecOps
- Если сравнивать - в традиционной ИБ мы в первую защищаем сеть и пользователей; в MLSecOps кого мы защищаем в первую очередь: данные, модель или бизнес-процессы?
- Где в вашем проекте сейчас «боль» - данные, обучение, деплой или мониторинг?
- Какие ключевые категории атак сейчас самые распространенные?
- Можно ли сказать, что drift и слабый мониторинг - это сегодня главные двери для атак?
- Если бы вам завтра запретили записывать логи запросов к модели - почему это было бы катастрофой?
- Практика: как защищать ML-пайплайны
- Как проверить происхождение данных: реально ли сегодня внедрить полноценный data provenance в ML-пайплайне?
- Какие практики валидации входных данных работают лучше всего в боевых условиях?
- Подписание датасетов и DLP для данных - это рабочие методы или формальность?
- Как обнаружить «незаметное» отравление (backdoor) в датасете? Что эффективнее: метрики качества, выделенные audit-сеты или red-team-подход?
- Насколько adversarial training реально повышает устойчивость моделей, и где его границы?
- Какие robustness-тесты и fuzzing сегодня применяются для ML-моделей?
- Как использование Explainable AI помогает отбраковывать аномалии и «объяснять» ошибки?
- Нужно ли регулярно сканировать модели на вредоносные фрагменты или небезопасные сериализации? Кто это делает на практике?
- Есть ли риск, что усиленная защита модели ухудшает её точность или скорость работы?
- Какие ML-метрики в продакшене наиболее показательны для безопасности: распределение входов, поведение, latency-спайки или что-то ещё?
- Как на практике детектировать дрейф модели: автоматикой или через ручной анализ?
- Что из практики MLDR (Machine Learning Detection & Response) уже работает, а что пока остаётся теорией?
- Как правильно интегрировать сигналы от моделей в SOC или CTEM? Когда стоит эскалировать model-alert как полноценный инцидент?
- Насколько реально заменить часть работы SOC-аналитика алертами от ML-моделей? Это экономия времени или рост ложных срабатываний?
- Кому в компании должно принадлежать «право последнего слова», если модель и SOC дают разные сигналы?
- Будущее и прогнозы
- Какие технологии станут драйверами MLSecOps в ближайшие 2–3 года - model scanning, ML-firewalls, explainability или что-то новое?
- Кто в компании должен стать «владельцем безопасности ML» - SOC, ML-инженеры или появится новая роль MLSecOps?
- Ваш прогноз: через 3 года MLSecOps станет стандартом в индустрии или останется нишевой практикой?
- Если бюджет ограничен - куда вложить в 2026 году: безопасность данных, hardening моделей или мониторинг?
- Где появятся первые регуляторные требования к MLSecOps - в финансовом секторе, госсекторе или ИТ-компаниях?
- Какие первые компании или отрасли, на ваш взгляд, реально внедрят MLSecOps как стандарт?
Приглашенные эксперты:
|
Антон Конопак Руководитель отдела DevSecOps, «Инфосистемы Джет» |
|
Антон Башарин Старший управляющий директор, AppSec Solutions |
Модераторы:
|
Алексей Лукацкий Chief Evangelist Officer, Positive Technologies |