GhostTouch — вектор атаки с удалённым управлением сенсорными экранами

GhostTouch — вектор атаки с удалённым управлением сенсорными экранами

Исследователи продемонстрировали, по их словам, «первую бесконтактную атаку на ёмкие сенсорные экраны». Метод получил имя “GhostTouch“, а его суть заключается в использовании электромагнитных помех (EMI) для имитации нажатий на сенсорных экранах.

О GhostTouch рассказали исследователи из Дармштадтского и Чжэцзянского университетов. Согласно описанию в соответствующем отчёте, техника избавляет условного атакующего от необходимости иметь физический доступ к устройству для нажатий на экране.

Электромагнитные помехи злоумышленник может задействовать для отправки команд не только «тапов», но и свайпов (пролистывания) в определённом месте сенсорного экрана. С помощью этого вектора атакующий может управлять целевым девайсом.

GhostTouch работает на расстоянии до 40 мм и опирается на чувствительность сенсорных экранов к электромагнитным помехам. Идея сводится к инъекции таких сигналов в прозрачные электроды, встроенные в сенсорный экран. Именно так можно регистрировать события касаний экрана.

Набор для тестирования GhostTouch, который использовали исследователи, включал электростатическую пушку для генерации сильного сигнала, который впоследствии отправлялся на антенну для передачи электромагнитного поля на сенсорный экран телефона.

 

Манипулируя сигналом, можно вызывать различные события: нажатие, нажатие и удерживание, свайп. Простейший пример реализации: злоумышленник может подключить устройство пользователя к сомнительной сети Wi-Fi, заставить девайс пройти по вредоносной ссылке и даже ответить на телефонный звонок.

 

Специалисты выяснили, что к GhostTouch уязвимы следующие модели смартфонов: Galaxy A10s, Huawei P30 Lite, Honor View 10, Galaxy S20 FE 5G, Nexus 5X, Redmi Note 9S, Nokia 7.2, Redmi 8 и iPhone SE (2020 года выпуска).

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Мошенники ускоряют профилирование мишеней с помощью ИИ

Авторы сложных сценариев отъема денег у юрлиц стали использовать ИИ, чтобы ускорить сбор данных о намеченных жертвах. В RTM Group зафиксировали сотни случаев хорошо подготовленных атак на малый и средний бизнес.

Сама мошенническая схема выглядит, как BEC-атака, только вместо имейл используются мессенджер (в данном случае Telegram) и телефонная связь. Применение ИИ, по оценке экспертов, позволило повысить эффективность обмана на 40%; при этом преступный доход ОПГ средней величины (10 участников) может ежедневно составлять от 1 млн до нескольких десятков млн рублей.

В ходе подготовки злоумышленники, вооружившись ИИ, собирают информацию из слитых в Сеть баз. Найдя совпадения по месту работы и совместным счетам, они разбивают мишени на пары: владелец – управляющий компании, гендиректор – его зам, директор – главбух и т. п.

Затем в Telegram создаются поддельные аккаунты лидеров каждой пары, и боты начинают слать сообщения от их имени, вовлекая подчиненных в диалог. В качестве темы обычно используются непорядочность знакомых / клиентов либо мифическая проверка со стороны правоохраны (к примеру, ФСБ).

Сообщения бота могут содержать фамилии реальных представителей госорганов, скриншоты специально составленных документов. После такой обработки следует звонок персоны, упоминавшейся в ходе беседы.

Лжеревизор начинает задавать вопросы о случаях мошенничества, долгах, неких платежах, пытаясь определить финансовую проблему, которую можно использовать как предлог для выманивания денег переводом на левый счет.

«Основной рекомендацией по минимизации рисков является постоянное внимание к деталям в ходе виртуального общения с партнерами по бизнесу и сотрудниками, особенно когда речь идет о проблемах с законом, переводах финансовых средств, проверках компетентных органов, — заявили эксперты «Известиям». — Также специалисты RTM Group рекомендуют не выкладывать в публичный доступ прямые контакты руководителей компаний и департаментов».

На днях мы анализировали «злые» аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT. Рассказали, в чём состоит опасность и как с нею бороться.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru