Сервис WhatsApp защитил сообщения от перехвата

Сервис WhatsApp защитил сообщения от перехвата

В обновленной версии приложения WhatsApp для Android появилась функция «сквозного» (end-to-end) шифрования, которая по умолчанию защищает сообщения от перехвата и прочтения посторонними лицами. Об этом сообщается в блоге компании-партнера WhatsApp по обеспечению работы этой функции Open WhisperSystems.

Идея «сквозного» шифрования в том, что сообщение кодируется в момент отправки и может быть расшифровано только тем пользователем, которому оно предназначено. Таким образом, даже если посторонние лица смогут перехватить трафик WhatsApp, то сообщения попадут к ним в закодированном виде. Более того, расшифровать сообщения формально не смогут и сами представители WhatsApp, поскольку у них не будет доступа к ключам шифрования, и потому они не смогут раскрыть содержание переписки даже по решению суда, передает uinc.ru.

Аналогичным методом end-to-end кодирования пользуются сейчас и ряд других мессенджеров, включая Cryptocat, Silent Text и Telegram. Однако WhatsApp с аудиторией в 600 миллионов пользователей стал крупнейшей платформой, использующей «сквозное» шифрование сообщений. В частности, сервис Facebook Messenger, также принадлежащий Facebook, пока такую защиту для своих пользователей не предусматривает.

Компания Open WhisperSystems, чьи технологии использовал WhatsApp, известна разработкой приложений с аналогичным методом шифрования трафика Signal, Redphone и TextSecure. Разработчиков WhatsApp наиболее заинтересовал протокол защиты трафика в TextSecure, который получил много положительных отзывов от специалистов по инфобезопасности. Одна из его особенностей - в генерации отдельного ключа шифрования для каждого сообщения в переписке, тогда как многие другие сервисы используют один ключ для всей беседы между двумя пользователями.

«Сквозное» шифрование сообщений пока будет доступно только пользователям WhatsApp на Android-устройствах, сроки запуска аналогичной функции на iOS и других платформах не уточняются. Даже на Android кодирование end-to-end пока не предусмотрено в групповых чатах и при отсылке медиаконтента, однако разработчики обещают в ближайшее время исправить эту недоработку.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru