Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Скрытые в музыке или YouTube команды могут обмануть голосовые помощники

Опубликованное на днях новое исследование доказывает, что популярные голосовые помощники, установленные в смартфонах, уязвимы для скрытых аудио-атак, которые могут быть спрятаны в музыке или видео на YouTube.

В своем исследовании специалисты утверждают, что им удалось обмануть движок с открытым исходным кодом от Mozilla DeepSpeech, эксперты скрыли команду в совершенно других звуках. Исследователи также уточнили, что подобная атака срабатывает, если скрыть команду в коротких музыкальных фрагментах.

«Я думаю, что многие злоумышленники уже взяли на вооружение данный метод обмана голосовых помощников», — говорит один из обнаруживших проблему безопасности экспертов. — «В принципе, наша команда уже давно знала, что нам удастся совершить успешную атаку на любую современную систему ассистирования голосом».

Таким образом, киебрпреступники могут заставить атакуемый девайс открыть браузер и перейти на любую веб-страницу, в том числе вредоносную.

В основе метода, предложенного исследователями, лежат различия между тем, как звуки распознает человек, и как это делает машина. Следовательно, хозяин атакуемого устройства вообще не услышит ничего необычного или подозрительного, когда его смартфон воспримет сообщение иначе, выполнив скрытую в нем команду.

Исследователи опубликовали видео, демонстрирующее наличие данной проблемы безопасности.

Многие крупные корпорации вроде Google и Apple напомнили пользователям, что их устройства защищены от подобного рода атак.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники используют ИИ для подделки фото ДТП с целью получения страховки

Киберполиция Санкт-Петербурга и Ленобласти со ссылкой на данные Росгосстраха предупреждает о появлении в рунете мошеннических сервисов по ИИ-генерации фото разбитых машин для получения выплат по ОСАГО и КАСКО.

Российские страховщики предлагают автомобилистам самостоятельно фиксировать ущерб от ДТП и подавать такие данные через интернет. Следящие за повесткой дня злоумышленники не могли упустить лишний шанс для обогащения, хотя их расценки пока либеральны.

Киберкопы северной столицы опубликовали рекомендации по добросовестному сбору доказательств страхового случая:

  • снимать ДТП с разных позиций и при хорошем освещении;
  • фотографировать не только повреждения, но также окружение (дорожные знаки, позиции автомашин);
  • лучше сделать видео, его сложнее сфальсифицировать;
  • в отснятых материалах должны присутствовать время, место, ФИО свидетелей ДТП и номера авто, засветившихся на месте происшествия;
  • оригиналы фото- и видеосъемки следует сохранить, а копии пересылать лишь через сервис страховой компании, левые предложения в соцсетях для этого не годятся.

Страховым компаниям как потенциальным жертвам подлога советуют тщательно проверять метаданные фото, запрашивать съемку с разных ракурсов, использовать средства детектирования фейков и целостности присланных файлов, а также обучать клиентов правилам фиксации ДТП и подачи заявлений.

При появлении подозрений на обман следует запустить проверку с привлечением правоохранительных органов. Что касается мошеннических фейков, российские ученые уже более двух лет ратуют за маркировку контента, создаваемого с помощью ИИ.

Ограничить использование ИИ-технологий также призывают российские парламентарии — в связи с рисками, которые усилиями экспертов осознали не только в России, но и за рубежом. Тем не менее, международному сообществу пока не удалось добиться консенсуса по вопросам урегулирования ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru