Автомобили Kia можно было контролировать удалённо из-за набора уязвимостей

Автомобили Kia можно было контролировать удалённо из-за набора уязвимостей

Автомобили Kia можно было контролировать удалённо из-за набора уязвимостей

Специалисты по кибербезопасности рассказали о нескольких уязвимостях, затрагивающих автомобили южнокорейского производителя Kia и позволявших получить контроль над ключевой функциональностью. В настоящее время бреши устранены.

Как отметили исследователи Нико Ривера, Сэм Карри, Джастин Райнхарт и Ян Кэрролл:

«Вектор позволял провести атаку удалённо всего за 30 секунд, причём независимо от того, была ли активна подписка на Kia Connect или нет».

Проблема затрагивала практически все машины, выпушенные после 2013 года. В процессе эксплуатации злоумышленники могли добраться и до конфиденциальной информации пользователя: имени, телефонного номера, электронной почты и физического адреса.

Фактически с помощью выявленных уязвимостей посторонний мог добавить себя в качестве второго «скрытого» пользователя автомобиля без ведома владельца.

Корень проблемы крылся в инфраструктуре дилерского центра Kia — «kiaconnect.kdealer[.]com», который используется для активации машин. Через HTTP-запрос можно было зарегистрировать фейковый аккаунт и сгенерировать токены доступа.

Работу демонстрационного эксплойта специалисты показали в выложенном на YouTube видео:

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru