Япония требует от Facebook защитить персональные данные пользователей

Япония требует от Facebook защитить персональные данные пользователей

Япония требует от Facebook защитить персональные данные пользователей

Японию не устраивают постоянные проблемы безопасности, с которыми приходится сталкиваться пользователям социальной сети Facebook. Чтобы избежать повторения киберинцидентов в будущем, правительство Страны восходящего солнца требует от компании принять дополнительные меры по обеспечению защиты персональных данных пользователей.

Урегулированием вопроса занялась японская правительственная комиссия по защите личных данных. Впервые представители комиссии связались с соцсетью лично по поводу решения проблем, связанных с конфиденциальностью и безопасностью пользователей.

Больше всего регулятор интересует возможность удаления данных пользователей, если от них поступает такой запрос. Япония считает, что Facebook должна обеспечить оперативность ответов на подобные запросы.

Более того, японская комиссия намерена потребовать провести расследование сентябрьской утечки данных социальной платформы, которая затронула миллионы людей.

Сегодня также мы писали, что социальная сеть Facebook задумалась о приобретении компании, специализирующейся на кибербезопасности. Похоже, компания старается уверить пользователей, что руководство сделало выводы из недавних киберинцидентов.

А в прошлом месяце также стало известно, что Facebook был уличен в очередном сомнительном использовании персональных данных своих пользователей. Оказалось, что компания передает номера телефонов пользователей рекламным компаниям, которые используют ее для таргетированной рекламы.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru