Брешь TikTok позволяет внедрять фейковые видео в аккаунты пользователей

Брешь TikTok позволяет внедрять фейковые видео в аккаунты пользователей

Брешь TikTok позволяет внедрять фейковые видео в аккаунты пользователей

В популярном сервисе для создания коротких видео TikTok нашли опасную уязвимость, которая в умелых руках может стать инструментом для распространения дезинформации. Баг позволяет приписать авторство видео любой учётной записи.

Представьте ситуацию: вы просматриваете ленту в TikTok и в процессе натыкаетесь на незнакомое вам видео, якобы загруженное вашим аккаунтом.

Именно так работает уязвимость, проанализировав которую команда разработчиков пришла к выводу, что потенциальный злоумышленник может переназначить владельца видео на любой аккаунт TikTok.

Как объяснили специалисты, популярный видеосервис использует сети доставки контента (CDN) для эффективной передачи данных по всему миру. Чтобы повысить производительность, эти CDN передают данные по HTTP.

Именно выбор HTTP — а не более защищённого HTTPS — ставит пользователей под угрозу, отмечают разработчики.

«Любой маршрутизатор, расположенный между приложением TikTok и CDN, легко может получить список всех загруженных и просмотренных видео», — пишут эксперты.

«Другими словами, вся история просмотра открыта. Провайдеры общественного Wi-Fi, операторы связи и спецслужбы могут без труда собрать все эти данные».

Разработчики опубликовали на YouTube видеоролик, в котором демонстрируется эксплуатация данной уязвимости.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru