Google нашла 18 уязвимостей нулевого дня в процессорах Samsung Exynos

Google нашла 18 уязвимостей нулевого дня в процессорах Samsung Exynos

Google нашла 18 уязвимостей нулевого дня в процессорах Samsung Exynos

Багхантеры из команды Google выявили 18 уязвимостей нулевого дня (0-day) в процессорах Samsung Exynos, которые используются в некоторых моделях популярных смартфонов, ряде умных девайсов и даже автомобилях.

Четыре дыры из этого набора были признаны наиболее опасными: с их помощью злоумышленники могут выполнить вредоносный код удалённо. Одна такая брешь уже получила идентификатор — CVE-2023-24033, три другие пока ждут его.

«Процессор основной полосы частот недостаточно проверяет типы формата атрибута “accept-type“, указанные SDP. В результате это может привести к DoS и выполнению кода в Samsung Baseband Modem», — описывает CVE-2023-24033 сама корпорация Samsung.

Единственная информация, необходимая злоумышленникам для атаки, — телефонный номер жертвы. Об это заявил Тим Уиллис из команды Project Zero. Более того, опытные киберпреступники могут создать эксплойт, способный удалённо взломать мобильное устройство без взаимодействия с пользователем.

Из оставшихся 14 уязвимостей пока только пять получили трекеры: CVE-2023-24072, CVE-2023-24073, CVE-2023-24074, CVE-2023-24075, CVE-2023-24076. Они не настолько опасны, хотя в определённых условиях также создают определённые риски.

Среди подтверждённых затронутых устройств эксперты называют следующие:

  • смартфоны Samsung моделей S22, M33, M13, M12, A71, A53, A33, A21, A13, A12 и A04;
  • смартфоны Vivo моделей S16, S15, S6, X70, X60 и X30;
  • устройства Pixel 6 и Pixel 7 от Google;
  • носимые умные устройства, оснащённые процессором Exynos W920;
  • автомобили, использующие чипсет Exynos Auto T5123.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru