Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

В начале года Kohler представила весьма необычное устройство — умную камеру Dekoda, которая крепится к унитазу, фотографирует содержимое чаши и помогает анализировать состояние кишечника. Всё ради здоровья, конечно. И понимая, что идея выглядит, скажем так, чувствительно, компания заранее заверила пользователей: мол, камера смотрит только вниз, а данные защищены надёжнейшим «сквозным шифрованием».

Вот только слово «сквозным» здесь оказалось лишним. Исследователь безопасности Саймон Фондри-Тейтлер заметил, что в политике конфиденциальности Kohler на самом деле речь идёт вовсе не о настоящем E2EE (как в Signal, например), а о стандартном TLS — том самом, который используется в HTTPS.

То есть данные шифруются в пути, но на стороне Kohler вполне себе расшифровываются и используются.

Зачем вообще так запутывать термины — вопрос открытый. Но в контексте того, что камера фотографирует интерьер унитаза, хотелось бы максимальной точности. Пользователь, увидев «end-to-end», может подумать, что снимки недоступны никому, включая производителя. Это, очевидно, не так.

Kohler на запросы журналистов TechCrunch не ответила, но представитель компании сообщил исследователю, что данные «зашифрованы при хранении — на телефоне пользователя, на самом устройстве и на серверах Kohler».

А данные «в пути» якобы «зашифрованы сквозным образом». Впрочем, даже формулировка компании признаёт: данные на серверах всё-таки расшифровываются, иначе Dekoda просто не могла бы выполнять анализ.

И тут всплыл ещё один тонкий момент: раз Kohler получает доступ к фотографиям, может ли она использовать их для обучения своих моделей? По словам представителя компании, алгоритмы обучаются только на «обезличенных данных». Какая именно схема обезличивания применяется — не уточняется, но уверяют, что лица в кадре точно нет.

История в очередной раз показывает: прежде чем ставить умную камеру рядом с личным пространством в доме, неплохо бы внимательно прочитать политику конфиденциальности. И желательно, чтобы производители тоже внимательно читали, что пишут у себя на сайте.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru