TikTok по-тихому сливал данные соискателей вакансий в Китай

TikTok по-тихому сливал данные соискателей вакансий в Китай

TikTok по-тихому сливал данные соискателей вакансий в Китай

Сервис видеоклипов TikTok пересылал персональные данные лиц, ищущих работу, на китайские серверы, но в политике конфиденциальности сообщал об этом далеко не всем. Когда журналисты обнаружили редирект на сайте careers.tiktok.com, операторы платформы негласно его убрали.

Последнее время TikTok старательно пытается отмежеваться от своего владельца — многонационального холдинга ByteDance, официально прописанного на Каймановых островах, но со штаб-квартирой в Пекине. Так, комментируя для прессы заявление Дональда Трампа, в котором он обвинил TikTok в сливе пользовательских данных в Китай, представители компании назвали этот выпад «беспочвенными инсинуациями».

Согласно политике конфиденциальности TikTok, ее сайт трудоустройства собирает множество информации о кандидатах на рабочие места, в том числе такие чувствительные данные, как медицинские показатели, пол, расовая принадлежность, семейное положение, данные геолокации. При этом сведения обо всех соискателях, проживающих за пределами КНР, якобы хранятся на серверах в Сингапуре.

Журналистское расследование, проведенное Business Insider, показало, что это не совсем так.  Создать аккаунт на careers.tiktok.com можно несколькими способами: указать при регистрации свой email или номер телефона, через LinkedIn или с помощью логина Facebook. В последнем случае пользователю выводится диалоговое окно TikTok Career, которое, как оказалось, выполняло перенаправление на сайт portal-tiktok.kundou.cn.

Базирующаяся в Пекине компания Kundou, по всей видимости, контролируется ByteDance, обеспечивая техподдержку бэкенд-софта для подбора кадров в рамках холдинга. Однако, раскрывая свою структуру, ByteDance никогда не упоминает Kundou, как и другие свои операции на территории КНР.

Примечательно, что текст политики конфиденциальности TikTok Career в разных странах не совсем одинаков. Европейцам, японцам и жителям Сингапура прямо сообщается, что их данные проходят через китайские серверы, а от граждан США и Малайзии, например, эту информацию скрывают.

Обнаружив редирект, журналисты не без оснований предположили, что на китайских серверах оседают данные всех пользователей careers.tiktok.com — не только тех, что создали аккаунт через Facebook. Когда они запросили комментарий в TikTok, операторы сервиса попросту удалили перенаправление со страницы, а потом заявили, что больше не будут хранить подобную информацию в Китае.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru