Более 500 000 аккаунтов Zoom продаются на площадках дарквеба

Более 500 000 аккаунтов Zoom продаются на площадках дарквеба

Более 500 000 аккаунтов Zoom продаются на площадках дарквеба

Киберпреступники продают на хакерских форумах и площадках дарквеба более 500 тыс. аккаунтов, принадлежащих пользователям популярного сервиса для видеоконференций Zoom. При этом за каждую учётную запись злоумышленники просят исключительно символичную сумму или вообще отдают бесплатно.

Очевидно, что выставленные на продажу учётные данные злоумышленники добыли с помощью атак вида credential stuffing: сначала преступники использовали базы утечек для подбора рабочих комбинаций «логин-пароль», а затем собрали актуальные учётные данные в список, который сейчас продаётся на хакерских форумах.

По мнению специалистов компании Cyble, преступники хотят укрепить свою репутацию в хакерской среде, именно поэтому они предлагают скомпрометированные данные почти даром.

Доступ к аккаунтам пользователей передаётся через сайты, позволяющие делиться текстовыми данными. Злоумышленники публикуют на этих ресурсах адреса электронной почты и соответствующие им пароли.

На скриншоте ниже представлена часть опубликованных учётных данных, принадлежащих сотрудникам американских университетов.

Проанализировав часть продаваемых данных, эксперты заключили, что добрая их часть уже до этого фигурировала в старых утечках.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru