MLSecOps - Онлайн-конференция по информационной безопасности

MLSecOps

MLSecOps
Дата: 
10 Октября 2025 - 11:00
Место проведения: 
Онлайн
Описание: 

В прямом эфире AM Live разберём, как встроить безопасность в жизненный цикл ИИ: от защиты данных и моделей до мониторинга атак в продакшене. Покажем реальные примеры adversarial-атак и poisoning, обсудим, как компании выстраивают процессы MLSecOps, какие инструменты работают сегодня и как избежать типичных ошибок. Только практические кейсы, честный анализ и опыт экспертов, которые уже защищают ИИ-системы в реальных проекта.

  1. Основы MLSecOps и картина угроз
    • Простыми словами: что такое MLSecOps и зачем он появился?
    • Чем MLSecOps отличается от MLOps/DevSecOps
    • Если сравнивать - в традиционной ИБ мы в первую защищаем сеть и пользователей; в MLSecOps кого мы защищаем в первую очередь: данные, модель или бизнес-процессы?
    • Где в вашем проекте сейчас «боль» - данные, обучение, деплой или мониторинг?
    • Какие ключевые категории атак сейчас самые распространенные?
    • Можно ли сказать, что drift и слабый мониторинг - это сегодня главные двери для атак?
    • Если бы вам завтра запретили записывать логи запросов к модели - почему это было бы катастрофой?
  2. Практика: как защищать ML-пайплайны
    • Как проверить происхождение данных: реально ли сегодня внедрить полноценный data provenance в ML-пайплайне?
    • Какие практики валидации входных данных работают лучше всего в боевых условиях?
    • Подписание датасетов и DLP для данных - это рабочие методы или формальность?
    • Как обнаружить «незаметное» отравление (backdoor) в датасете? Что эффективнее: метрики качества, выделенные audit-сеты или red-team-подход?
    • Насколько adversarial training реально повышает устойчивость моделей, и где его границы?
    • Какие robustness-тесты и fuzzing сегодня применяются для ML-моделей?
    • Как использование Explainable AI помогает отбраковывать аномалии и «объяснять» ошибки?
    • Нужно ли регулярно сканировать модели на вредоносные фрагменты или небезопасные сериализации? Кто это делает на практике?
    • Есть ли риск, что усиленная защита модели ухудшает её точность или скорость работы?
    • Какие ML-метрики в продакшене наиболее показательны для безопасности: распределение входов, поведение, latency-спайки или что-то ещё?
    • Как на практике детектировать дрейф модели: автоматикой или через ручной анализ?
    • Что из практики MLDR (Machine Learning Detection & Response) уже работает, а что пока остаётся теорией?
    • Как правильно интегрировать сигналы от моделей в SOC или CTEM? Когда стоит эскалировать model-alert как полноценный инцидент?
    • Насколько реально заменить часть работы SOC-аналитика алертами от ML-моделей? Это экономия времени или рост ложных срабатываний?
    • Кому в компании должно принадлежать «право последнего слова», если модель и SOC дают разные сигналы?
  3. Будущее и прогнозы
    • Какие технологии станут драйверами MLSecOps в ближайшие 2–3 года - model scanning, ML-firewalls, explainability или что-то новое?
    • Кто в компании должен стать «владельцем безопасности ML» - SOC, ML-инженеры или появится новая роль MLSecOps?
    • Ваш прогноз: через 3 года MLSecOps станет стандартом в индустрии или останется нишевой практикой?
    • Если бюджет ограничен - куда вложить в 2026 году: безопасность данных, hardening моделей или мониторинг?
    • Где появятся первые регуляторные требования к MLSecOps - в финансовом секторе, госсекторе или ИТ-компаниях?
    • Какие первые компании или отрасли, на ваш взгляд, реально внедрят MLSecOps как стандарт?

Приглашенные эксперты:

Антон Конопак

Руководитель отдела DevSecOps, «Инфосистемы Джет»

Антон Башарин

Старший управляющий директор, AppSec Solutions

 

Модераторы:

Алексей Лукацкий

Chief Evangelist Officer, Positive Technologies


 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.