Microsoft отказалась изучать уязвимость без видео — эксперт возмутился

Microsoft отказалась изучать уязвимость без видео — эксперт возмутился

Microsoft отказалась изучать уязвимость без видео — эксперт возмутился

Специалист в области кибербезопасности Уилл Дорман (Will Dormann) публично осудил Microsoft за отказ рассматривать его отчёт об обнаруженной уязвимости без видеодоказательства.

Как рассказал Дорман, он направил в Microsoft Security Response Center (MSRC) подробное описание бага и сопровождающие скриншоты. Однако специалисты MSRC отказались принимать отчёт без демонстрации эксплуатации уязвимости на видео.

«Пожалуйста, предоставьте чёткое видео работы POC (proof of concept), демонстрирующее эксплуатацию указанной уязвимости. Мы не можем продвинуться дальше без него», — ответили ему в MSRC.

Аналитик возмутился этим требованием, заявив, что видео не добавит ценности, так как единственное, что он мог бы показать, — это ввод уже описанных команд в командной строке.

В итоге Дорман записал 15-минутное видео, где на четвёртой секунде мелькает кадр из фильма «Образцовый самец» (Zoolander) с подписью «Центр для детей, которые не умеют хорошо читать», после чего 14 минут экран остаётся пустым.

 

Добавить видео на портал Microsoft у Дормана так и не получилось — система выдала ошибку 403.

По словам эксперта, эти требования свидетельствует о том, что сотрудники MSRC просто следуют инструкциям, а не пытаются разобраться в сути уязвимости.

«Если исследователь добровольно делится отчётом о проблеме, самое малое, что может сделать вендор, — хотя бы сделать вид, что воспринимает её всерьёз», — заявил он.

Microsoft в комментарии изданию The Register отметила, что видеодоказательства не являются обязательными, но могут помочь в оценке уязвимости и получении награды в рамках баг-баунти. Тем не менее Дорман по-прежнему ждёт ответа от техногиганта.

ФСТЭК России определилась со списком угроз для ИИ-систем

В банке данных угроз (БДУ), созданном ФСТЭК России, появился раздел о проблемах, специфичных для ИИ. Риски в отношении ИБ, связанные с качеством софта, ML-моделей и наборов обучающих данных, здесь не рассматриваются.

Угрозы нарушения конфиденциальности, целостности или доступности информации, обрабатываемой с помощью ИИ, разделены на две группы — реализуемые на этапе разработки / обучения и в ходе эксплуатации таких систем.

В инфраструктуре разработчика ИИ-систем оценки на предмет безопасности информации требуют следующие объекты:

 

Объекты, подлежащие проверке на безопасность в инфраструктуре оператора ИИ-системы:

 

Дополнительно и разработчикам, и операторам следует учитывать возможность утечки конфиденциальной информации, а также кражи, отказа либо нарушения функционирования ML-моделей.

Среди векторов возможных атак упомянуты эксплойт уязвимостей в шаблонах для ИИ, модификация промптов и конфигурации агентов, исчерпание лимита на обращения к ИИ-системе с целью вызвать отказ в обслуживании (DoS).

В комментарии для «Ведомостей» первый замдиректора ФСТЭК Виталий Лютиков пояснил, что составленный ими перечень угроз для ИИ ляжет в основу разрабатываемого стандарта по безопасной разработке ИИ-систем, который планировалась вынести на обсуждение до конца этого года.

Представленная в новом разделе БДУ детализация также поможет полагающимся на ИИ госструктурам и субъектам КИИ данных скорректировать процессы моделирования угроз к моменту вступления в силу приказа ФТЭК об усилении защиты данных в ГИС (№117, заработает с марта 2026 года).

Ужесточение требований регулятора в отношении безопасности вызвано ростом числа атак, в том числе на ИИ. В этих условиях важно учитывать не только возможности ИИ-технологий, но и сопряженные с ними риски.

RSS: Новости на портале Anti-Malware.ru