Новый троян KevDroid записывает звонки на Android-устройствах

Новый троян KevDroid записывает звонки на Android-устройствах

Новый троян KevDroid записывает звонки на Android-устройствах

Эксперты Cisco Talos проанализировали маскирующийся под антивирус вредонос для мобильной платформы Android. Ранее EST Security уже сообщала об активности этого зловреда, связывая его с деятельностью северокорейской киберпреступной группы Group 123.

Специалисты выделили два образца этой вредоносной программы, у обоих образцов отмечались одинаковые возможности — кража информации на зараженном устройстве (например, контактов, SMS и истории вызовов) и запись телефонных звонков жертвы. Один из семплов использовал известный эксплойт для уязвимости в Android CVE-2015-3636, что позволяло ему получить root-доступ на атакованном устройстве.

Оба варианта вредоноса отправляли данные на уникальный командный центр (C2-сервер) с помощью HTTP POST. Возможность записи вызовов была реализована на основе проекта с открытым исходным кодом, доступного на GitHub. Специалисты Cisco назвали эту программу «KevDroid».

Еще один образец, проанализированный исследователями (атакующий Windows), был найден на сервере злоумышленников и использовался KevDroid. Вредоносная программа использует платформу PubNub в качестве C2-сервера. PubNub представляет собой IaaS-решение, обеспечивающее передачу сообщений в реальном времени. В частности, злоумышленники используют PubNub API для передачи команд скомпрометированным системам. Этот образец получил имя «PubNubRAT».

В настоящее время эксперты не могут точно установить связь этих вредоносных программ с группой Group 123, они лишь отметили отдельный набор общих методов и техник, что, пожалуй, не может свидетельствовать о стопроцентной связи.

KevDroid получил возможность записывать разговоры жертвы благодаря проекту aykuttasil project. Этот проект предоставляет библиотеку для записи телефонных звонков, совершаемых на устройстве Android.

Вредонос сообщает злоумышленникам следующую информацию о зараженном устройстве:

  • Установленные приложения;
  • Номер телефона;
  • Уникальный идентификатор устройства;
  • Местоположение;
  • Сохраненные контакты;
  • СМС;
  • Записи разговоров;
  • Электронные письма;
  • Фотографии.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru