Microsoft заплатит 200 000 долларов создателю лучшего способа борьбы с эксплойтами

Microsoft заплатит 200 000 долларов создателю лучшего способа борьбы с эксплойтами

Корпорация объявила о старте соревнования для исследователей, изучающих проблемы противодействия эксплуатационным кодам. Призовой фонд конкурса составляет 250 тыс. долларов; основная часть этих денег достанется тому, кто спроектирует наилучшую (по мнению Microsoft) технологию защиты от злонамеренного использования уязвимостей.


Основное требование таково: технология, представляемая на состязание, должна эффективно бороться не с какими-то конкретными изъянами в программных продуктах, а с целыми классами эксплойтов - допустим, принципиально мешать любым попыткам повреждения памяти, безотносительно того, какое они имеют происхождение и против чего направлены. Образцы подобных систем уже есть - например, известная технология случайного расположения адресного пространства (ASLR), которая мешает злоумышленникам точно определять свободные блоки памяти, доступные для размещения вредоносной нагрузки.

По словам официальных лиц Microsoft, борьба с эксплуатацией уязвимостей требует более широкого подхода, нежели выявление отдельных изъянов и их ликвидация. Поэтому корпорация хочет, чтобы исследователи продемонстрировали способность к творческому мышлению и вышли за рамки традиционных методов противодействия атакующим кодам. На это корпорация дает потенциальным участникам без малого год: прием конкурсных работ будет продолжаться до 1 апреля 2012. Итоги же будут подведены на следующей конференции Black Hat, и тогда же победитель и призеры получат свои награды.

Как уже было сказано, автор лучшей технологии получит 200 тыс. долларов. Специалист, чья работа займет второе место, сможет рассчитывать на 50 тыс. долларов, а наградой за третью позицию будет MSDN-абонемент. Полное описание всех правил и условий состязания можно найти здесь. Заметим, что лауреаты конкурса сохранят авторские права на свои разработки, однако обязаны будут предоставить эти технологии в безвозмездное распоряжение Microsoft для использования в ее операционных системах и - возможно - других программных продуктах.

PC World

Письмо автору

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru