Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Просмотр видео на YouTube может скомпрометировать ваш смартфон

Скрытые голосовые команды могут скомпрометировать мобильное устройство. Исследователями был проанализирован новый метод атаки на мобильные устройства. Исследование было обусловлено появлением голосовых интерфейсов для компьютеров и проводилось на устройствах Android и iOS с включенной функцией "Google Now". Исследователи хотели узнать, могут ли выдаваться скрытые команды, учитывая, что устройства часто используют режим "always-on", в котором они непрерывно принимают голосовые команды.

В статье с описанием эксперимента, исследователи из Berkeley and Georgetown University показали, что скрытые голосовые команды могут действительно быть использованы. Человеку вряд ли удастся понять или даже заметить эти команды, однако мобильное устройство отреагирует на них.

Также исследователи обнаружили, что такого вида атаки могут быть выполнены, только если атакуемое устройство находится в пределах заданного диапазона. Это обусловлено тем, что системы распознавания голоса были предназначены для фильтрации фонового шума. Исследователи говорят, что можно транслировать скрытые команды из громкоговорителя на мероприятии или вставлять их в трендовом видео YouTube.

Злоумышленники могут спровоцировать утечку информации о пользователе (например, размещение в твиттере местоположения), могут активировать авиарежим, а так же могут подготовить устройство для дальнейших видов атак (например, открытие вредоносной веб-страницы в браузере).

В статье исследователей показано, что атака получается успешной, если она осуществляется на уровне менее 3,5 м от атакуемого устройства.

«В то время как голосовые интерфейсы позволяют облегчить взаимодействие человека с устройством, они также являются потенциальным вектором атак. Использование голосовых команд доступно для любого злоумышленника, находящего в непосредственной близости от устройства.» - утверждают исследователи.

В дополнение к описанию атаки в вышеупомянутой статье, исследователи также показали несколько методов, которые могут предотвратить подобные атаки. Среди них потенциальная возможность устройства сообщать пользователю, что получена голосовая команда или требовать подтверждения выданной команды. В любом случае, исследователи утверждают, что предотвратить такие атаки технически возможно.

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru