Опубликован PoC для новой уязвимости use-after-free в Google Chrome WebGPU

Опубликован PoC для новой уязвимости use-after-free в Google Chrome WebGPU

Опубликован PoC для новой уязвимости use-after-free в Google Chrome WebGPU

Исследователи из Cisco Talos выявили опасную уязвимость в API WebGPU браузера Google Chrome. Проблема возникла из-за некорректной реализации поддержки нового стандарта и позволяет выполнить вредоносный код в системе.

Экспериментальный JavaScript-интерфейс WebGPU в Google считают преемником WebGL. Такие реализации позволяют использовать графический ускоритель системы (GPU) для обработки и рендеринга 3D-графики, присутствующей на страницах сайтов.

Спецификации WebGPU пока существуют в виде рабочего проекта. В Chrome эта опция, доступная разработчикам, появилась в версии 94; срок испытаний закончится в сентябре, с выходом версии 105. Возможность аппаратно-ускоренной графики в браузере Google реализует библиотека Dawn (на C++) — модуль движка Blink.

Уязвимость CVE-2022-2399 (8,3 балла CVSS) относится к классу use-after-free (использование освобожденной памяти). Подобная ошибка может привести к краху приложения, повреждению или утечке данных, а также открывает возможность для выполнения стороннего кода в системе.

Согласно Cisco, эксплойт в данном случае можно провести с помощью специально созданной веб-страницы, расшарив URL — к примеру, в спаме. Наличие уязвимости подтверждено для 64-битного Chrome сборок 102.0.4956.0 и 99.0.4844.82. Эксперты подразделения Talos помогли Google решить проблему; обновление с патчем уже доступно, поэтому подробности и PoC-код выложены в паблик.

В прошлом месяце Google устранила еще одну use-after-free в WebGPU — CVE-2022-2007. Аналогичный API для Firefox написан на Rust, и он пока тоже несовершенен. Разработчики Safari, решая ту же задачу, отдали предпочтение языку шейдинга WSL, созданному силами WebGPU-сообщества.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru