Социальные боты причастны к воровству личных данных

Социальные боты причастны к воровству личных данных

Согласно результатам последнего исследования, проведенного специалистами из канадского Университета Британской Колумбии в Ванкувере, так называемые "социальные боты" - программы, созданные для имитации поведения людей в социальных сетях, способны эффективно похищать персональные данные пользователей. Так, в одной лишь Facebook канадские исследователи при помощи "социо-ботов" получили почти 250 гигабайт информации о пользователях этой сети.



Двухмесячное исследование проводилось с целью определить, насколько уязвимы социальные сети и их пользователи перед лицом крупномасштабных операций, связанных с похищением личных данных. Как можно понять из полученных 250 гигабайт данных, очень уязвимы.

Канадские социологи говорят, что исключительно в академических целях запустили в социальные сети 102 различных "социо-бота", которые завели себе персональные страницы с фотографиями, а сам функционал ботов позволял им "стучаться" к другим пользователям и отправлять им сообщения с инвайтами. Запущенные боты разослали пользователям 5053 сообщения, причем каждый бот был ограничен отправкой 25 сообщений в день, чтобы у Facebook не сработала антиспамерская система. За первые несколько дней теста 19% инвайтов (976 штук) были приняты пользователями, передает cybersecurity

За следующие полтора месяца боты отправили еще 3517 запросов данных своим новым "друзьям" по Facebook. Из этого числа 2079 пользователей такие данные предоставили. Для того, чтобы повысить шансы на выдачу данных, боты использовали психологический прием под названием "триадный принцип закрытия", предусматривающий заведение некоего общего с пользователем друга в сети.

Канадские исследователи говорят, что социальные сети оказываются чрезвычайно уязвимы для крупномасштабных кампаний по хищению данных. Примерно 8 из 10 пользователей клюют на какую-либо уловку ботов. "На примере социальной сети Facebook мы показали, что получать персональные данные совсем несложно, более того этот процесс можно автоматизировать и проводить в чрезвычайно больших масштабах. Самим пользователям и операторам сетей стоит задуматься над этим", - говорится в результатах исследования, которые должны быть опубликованы на будущей неделе.

По словам авторов исследования, социальные механизмы защиты в Facebook и иных соцсетях существуют, но они недостаточно интеллектуальны и пока не могут отличить настоящего пользователя от бота, даже если последний действую полностью на автомате и без участия живого человека. Также в исследовании говорится, что в будущем на базе этой или ей подобных методик могут быть реализованы настоящие кампании по краже данных у десятков или даже сотен тысяч людей.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru