Устройства не могут прослушивать разговоры для таргетинга рекламы

Устройства не могут прослушивать разговоры для таргетинга рекламы

Устройства не могут прослушивать разговоры для таргетинга рекламы

Устройства и онлайн-сервисы не прослушивают пользователей через встроенные микрофоны. Это потребовало бы значительных вычислительных и энергетических ресурсов, а также создало бы серьезные юридические риски.

Для таргетирования рекламы достаточно анализа цифрового следа пользователя.

Директор по продукту цифровизации клиентского сервиса в дистанционных каналах компании BSS Юлия Вдовина рассказала агентству «РИА Новости», как компании подбирают рекламу. По ее словам, использование аудиоданных для этих целей нецелесообразно для владельцев платформ и сервисов.

Операционные системы iOS и Android запрашивают разрешение пользователя на доступ к микрофону — как правило, при первом использовании голосового поиска в приложениях. Однако даже при наличии такого разрешения постоянный сбор аудиоданных быстро разряжает аккумулятор и потребляет значительный объем интернет-трафика. Кроме того, подобная практика является серьезным нарушением законодательства о защите персональных данных, действующего во многих странах, включая Россию.

«Прямой прослушки микрофона для показа рекламы не происходит. Однако алгоритмы настолько точно анализируют ваш цифровой след — историю поиска, геолокацию, активность в социальных сетях — что создается впечатление "подслушивания". С помощью идентификаторов IDFA и GAID сервисы связывают действия пользователя в разных приложениях: например, поиск отеля в одном из них может привести к показу рекламы в другом. Сайты обмениваются данными через cookie-файлы и аналитические пиксели, а специалисты по продажам прогнозируют спрос, учитывая сезонность и демографические характеристики», — пояснила Юлия Вдовина.

Чтобы минимизировать риски возможного «подслушивания», она рекомендовала ограничить доступ приложений к микрофону, геолокации и контактам устройства.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru