Вы здесь

Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Опубликованное на днях новое исследование доказывает, что популярные голосовые помощники, установленные в смартфонах, уязвимы для скрытых аудио-атак, которые могут быть спрятаны в музыке или видео на YouTube.

В своем исследовании специалисты утверждают, что им удалось обмануть движок с открытым исходным кодом от Mozilla DeepSpeech, эксперты скрыли команду в совершенно других звуках. Исследователи также уточнили, что подобная атака срабатывает, если скрыть команду в коротких музыкальных фрагментах.

«Я думаю, что многие злоумышленники уже взяли на вооружение данный метод обмана голосовых помощников», — говорит один из обнаруживших проблему безопасности экспертов. — «В принципе, наша команда уже давно знала, что нам удастся совершить успешную атаку на любую современную систему ассистирования голосом».

Таким образом, киебрпреступники могут заставить атакуемый девайс открыть браузер и перейти на любую веб-страницу, в том числе вредоносную.

В основе метода, предложенного исследователями, лежат различия между тем, как звуки распознает человек, и как это делает машина. Следовательно, хозяин атакуемого устройства вообще не услышит ничего необычного или подозрительного, когда его смартфон воспримет сообщение иначе, выполнив скрытую в нем команду.

Исследователи опубликовали видео, демонстрирующее наличие данной проблемы безопасности.

Многие крупные корпорации вроде Google и Apple напомнили пользователям, что их устройства защищены от подобного рода атак.

Подпишитесь
в Facebook

Я уже с вами