Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Скрытые голосовые команды могут скомпрометировать мобильное устройство. Исследователями был проанализирован новый метод атаки на мобильные устройства. Исследование было обусловлено появлением голосовых интерфейсов для компьютеров и проводилось на устройствах Android и iOS с включенной функцией "Google Now". Исследователи хотели узнать, могут ли выдаваться скрытые команды, учитывая, что устройства часто используют режим "always-on", в котором они непрерывно принимают голосовые команды.

В статье с описанием эксперимента, исследователи из Berkeley and Georgetown University показали, что скрытые голосовые команды могут действительно быть использованы. Человеку вряд ли удастся понять или даже заметить эти команды, однако мобильное устройство отреагирует на них.

Также исследователи обнаружили, что такого вида атаки могут быть выполнены, только если атакуемое устройство находится в пределах заданного диапазона. Это обусловлено тем, что системы распознавания голоса были предназначены для фильтрации фонового шума. Исследователи говорят, что можно транслировать скрытые команды из громкоговорителя на мероприятии или вставлять их в трендовом видео YouTube.

Злоумышленники могут спровоцировать утечку информации о пользователе (например, размещение в твиттере местоположения), могут активировать авиарежим, а так же могут подготовить устройство для дальнейших видов атак (например, открытие вредоносной веб-страницы в браузере).

В статье исследователей показано, что атака получается успешной, если она осуществляется на уровне менее 3,5 м от атакуемого устройства.

«В то время как голосовые интерфейсы позволяют облегчить взаимодействие человека с устройством, они также являются потенциальным вектором атак. Использование голосовых команд доступно для любого злоумышленника, находящего в непосредственной близости от устройства.» - утверждают исследователи.

В дополнение к описанию атаки в вышеупомянутой статье, исследователи также показали несколько методов, которые могут предотвратить подобные атаки. Среди них потенциальная возможность устройства сообщать пользователю, что получена голосовая команда или требовать подтверждения выданной команды. В любом случае, исследователи утверждают, что предотвратить такие атаки технически возможно.

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Whisper Leak: новая атака раскрывает темы диалогов с ИИ даже при шифровании

Исследователи Microsoft рассказали о новом векторе кибератаки под кодовым названием Whisper Leak. Он позволяет злоумышленникам вычислять, о чём человек разговаривает с искусственным интеллектом, даже если весь трафик зашифрован.

Наблюдая за сетевым трафиком между пользователем и языковой моделью, атакующий может анализировать размеры и интервалы передачи пакетов, чтобы определить тему диалога.

При этом содержимое сообщений остаётся зашифрованным, но характер обмена данными оказывается достаточно информативным, чтобы классифицировать разговор.

Как предупредила Microsoft, в зоне риска находятся пользователи, чей трафик может быть перехвачен — например, на уровне интернет-провайдера, в локальной сети или при подключении к общему Wi-Fi.

Исследователи отмечают, что атака может применяться для слежки за темами вроде финансовых операций, политических обсуждений или других конфиденциальных запросов.

Whisper Leak использует особенности потоковой генерации ответов (streaming mode), когда языковая модель отправляет текст постепенно, а не целиком после завершения обработки. Это даёт злоумышленнику возможность фиксировать различия в размерах и частоте пакетов данных, а затем с помощью алгоритмов машинного обучения — таких как LightGBM, Bi-LSTM и BERT — определять, к какой теме относится запрос.

 

По данным Microsoft, при тестировании многие модели — включая решения от Alibaba, DeepSeek, Mistral, Microsoft, OpenAI и xAI — показали точность классификации выше 98%. У моделей Google и Amazon результаты были лучше за счёт иной архитектуры, но и они оказались не полностью защищены.

После уведомления об уязвимости компании OpenAI, Microsoft, Mistral и xAI внедрили меры защиты. Одним из эффективных методов стало добавление случайных текстовых вставок переменной длины в ответы модели. Это делает размеры пакетов менее предсказуемыми и мешает анализировать поток данных.

Microsoft также рекомендует пользователям избегать обсуждения конфиденциальных тем при работе с чат-ботами через общественные сети, использовать VPN, по возможности выбирать непотоковые версии моделей и отдавать предпочтение сервисам, уже внедрившим защиту от подобных атак.

По сути, Whisper Leak показывает, что даже шифрование не всегда гарантирует приватность, если злоумышленник умеет «слушать» не слова, а ритм и объём разговора с искусственным интеллектом.

Подробнее о тёмной стороне искусственного интеллекта, а также угрозах, которые он несёт, можно почитать в нашей статье.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru