СЗПДн. Анализ. Низы не могут, верхи не хотят.

СЗПДн. Анализ. Низы не могут, верхи не хотят.

Летом этого года, в связи с выходом различных комментариев и информационных ресурсов по ПДн от Роскомнадзора несколько экспертов обрушились с жесткой критикой данной Службы: дескать всё неправильно, экспертов не позвали, нельзя РКН ничего комментировать, комментировать можно Минкомсвязи и т.п.

В итоге мы получили ситуацию когда оператор, желающий задать регулятору насущные вопросы, например такие:

1) Относится ли обработка анкет кандидатов на работу с вопросом "Имеется ли у вас судимость?" и вариантами ответа "Да" или "Нет" к обработке персональных данных о судимости (часть 3 статьи 10)? 

2) Относится ли получение от кандидата на работу "справки об отсутствии судимости" и хранение такой справки в организации к обработке персональных данных о судимости (часть 3 статьи 10)?

3) Относится ли обработка персональных данных о судимости к обработке специальных категорий персональных данных (часть 1 статьи 10)?

4) Относится ли код заболевания, указанный в соответствии с Международной статистической классификацией болезней (МКБ) к персональным данным о состоянии здоровья?

5) Относится данные типа "группа инвалидности - вторая" к персональным данным о состоянии здоровья?

6) Относится ли обработка данных о гражданстве в совокупности с ФИО, адресом, паспортными данными к обработке специальных категорий персональных данных (часть 1 статьи 10)?

получает от Роскомнадзора посыл типа:

а от Минкомсвязи ответ следующего содержания:

И кто только учил Минкомсвязи деловой переписке? На шесть конкретных вопросов, получаем 2 цитаты из законодательства и ни одного ответа.  Коллеги – эксперты, это их вы советовали в качестве разъясняющих законодательство? 
Спасибо, не надо. Уж лучше РКН.

PS: Кстати. 26 октября и 2 ноября 2015 года Управление Роскомнадзора по Южному федеральному округу проводит семинары с операторами персональных данных по темам:

·        

26.10.2015 в 14-00 по теме: «Законодательство Российской Федерации в сфере обработки персональных данных»

·        

02.11.2015 в 14-00 по теме: «Обработка персональных данных работников. Проблемные вопросы обработки персональных данных работников и соискателей»

Запись на участие в семинарах производится не позднее 22.10.2015 по тел. (861) 201-51-30.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru