Pixnapping: скрытая атака на Android, которая читает пиксели экрана

Pixnapping: скрытая атака на Android, которая читает пиксели экрана

Pixnapping: скрытая атака на Android, которая читает пиксели экрана

Учёные придумали новый трюк под названием Pixnapping, который позволяет злонамеренному приложению на Android фактически «снять» то, что показывают другие приложения, — 2FA-коды, сообщения, таймлайны местоположений и всё прочее, что видно на экране.

Главное — жертве нужно только установить вредоносное приложение; для успешной атаки такому софту не требуются системные разрешения.

Как это работает: сначала программа вызывает целевое приложение так, чтобы то отрендерило на экране нужную информацию (например окно с кодом).

Потом вредонос буквально «рисует» поверх и меряет маленькие различия во времени рендера отдельных пикселей — по этим таймингам он понимает, белый пиксель был или нет, и восстанавливает изображение по пикселю.

В итоге можно собрать, скажем, шестизначный 2FA-код или часть переписки — не мгновенно, но достаточно быстро, чтобы это представляло реальную угрозу в ряде случаев.

Исследователи показали вектор атаки на нескольких моделях смартфонов. В ряде случаев метод оказался достаточно быстрым, чтобы за 20–25 секунд восстановить код; на других — были помехи и скорость падала.

Разработчики платформ и производители смартфонов уже выпустили обновления, которые частично снижают риск, но учёные предупреждают, что атака может эволюционировать и обойти начальные фиксы.

Стоит заметить, что в реальной жизни реализовать Pixnapping не так просто: нужны тонкая настройка, подходящая модель устройства и время. Это не массовая эпидемия типа «вирусной» СМС-рассылки, но уязвимость серьёзная, потому что ломает базовое предположение — «одно приложение не должно читать то, что видно в другом».

Что делать обычному пользователю:

  • Обновите Android и приложения до последних версий — производители уже начали выпускать патчи.
  • Ставьте приложения только из проверенных источников и внимательно читайте отзывы.
  • Удаляйте или блокируйте подозрительные программы.
  • По возможности используйте более защищённые способы входа (аппаратный ключ безопасности вместо СМС- и 2FA-кодов там, где это поддерживается).

В общем, Pixnapping — интересный и тревожный пример того, как можно обойти привычные границы между приложениями, играя на особенностях рендеринга и времени. Паниковать не стоит, но обновлять версию ОС смартфона и быть внимательнее с незнакомыми apk — обязательно.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru