Apple впервые оштрафовали за отказ локализовать данные россиян

Apple впервые оштрафовали за отказ локализовать данные россиян

Apple впервые оштрафовали за отказ локализовать данные россиян

Постановление касается отказа Apple хранить информацию о российских пользователей на территории страны. Американская компания должна заплатить в казну два миллиона рублей. В Apple говорят, что в деле не тот ответчик.

Решение вынес сегодня Мировой суд Таганского района Москвы, передает Интерфакс:

"Признать Apple, Inc., виновной по ч. 8 ст. 13.11 КоАП РФ (невыполнение оператором при сборе персональных данных обязанности по обеспечению записи, систематизации, накопления, хранения персональных данных граждан РФ с использованием баз данных, находящихся на территории РФ) и назначить штраф в размере 2 млн рублей", — огласил решение судья.

Apple по этой статье штрафуют впервые. Представители техногиганта в суде заявили, что корпорация не является ответственной за сбор данных в России.

"Привлекается к ответственности не то лицо, которое занимается сбором данных в РФ. К суду привлечена компания Apple Inc., а за обработку данных отвечает Apple Distribution", — пояснил защитник.

Доводы Роскомнадзора: администратором ресурса Apple, на котором собираются данные, является компания Apple Inc:

"На сайте компании нет сведений о других юридических лицах, поэтому мы считаем, что протокол составлен верно", — заявил юрист ведомства.

В Apple полагали, что закрыли вопрос с локализацией еще три года назад. В конце 2018 американцы зарегистрировались в качестве оператора персональных данных и официально уведомили об этом Роскомнадзор.

Добавим, 26 июля тот же Таганский суд и по тому же поводу вынесет решение в отношении мессенджера WhatsApp (принадлежит Meta — признана в России экстремистской, деятельность запрещена). За повторный отказ локализовать данные российских пользователей компании может грозить от 6 млн до 18 млн рублей.

Следующие в июльской очереди за многомиллионным штрафом — музыкальный сервис Spotify, приложения Snapchat и компании Ookla LLC, она владеет сервисом по измерению скорости интернета Speedtest.

Российское представительство компании — ООО "Эппл Рус" — в декабре 2018 года официально уведомило Роскомнадзор о локализации данных российских пользователей на территории РФ, после чего она была внесена в реестр операторов персональных данных.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru