Ученые создали PoC-устройство для выявления прослушки через микрофон

Ученые создали PoC-устройство для выявления прослушки через микрофон

Ученые создали PoC-устройство для выявления прослушки через микрофон

Университетские исследователи из Сингапура и Южной Кореи разработали новую систему, способную определить скрытное включение микрофона по специфичному электромагнитному излучению. В ходе тестирования устройство, нареченное TickTock, успешно отработало на 27 ноутбуках из популярных 30, отказав на продуктах Apple.

Проект был запущен в ответ на рост количества атак, нацеленных на удаленную слежку за пользователями. Веб-камеру в таких случаях можно заклеить пластырем или изолентой, а избавиться от прослушки через микрофон не так-то просто.

Прототип TickTock (PDF) состоит из датчика ближнего звукового поля, РЧ-усилителя, программно-определяемой радиосистемы (SDR) и микрокомпьютера Raspberry Pi 4 Model B. Метод пассивного определения статуса микрофона полагается на тот факт, что при его включении кабели и разъемы, по которым тактовые сигналы передаются на АЦП, начинают фонить; эту слабую утечку можно выловить.

 

При создании системы исследователям пришлось преодолеть несколько препятствий:

  • тактовая частота микрофонов различна и зависит от используемого аудиокодека;
  • места, пригодные для подключения (с сильнейшей утечкой), в ноутбуках неодинаковы;
  • захваченные ЭМ-сигналы включают шум от других цепей, и его нужно отфильтровать во избежание ложноположительных срабатываний.

В итоге метод TickTock оказался действенным: тестирование показало, что его можно использовать на 90% ноутов, вошедших в контрольную выборку, в том числе на популярных продуктах Lenovo, Dell, HP и Asus. Исключение составили три модели MacBook — по всей видимости, ЭМ-шум подавляли алюминиевый корпус и короткие гибкие кабели.

Меньше успеха принесло испытание TickTock на смартфонах, планшетах, умных колонках и USB-камерах. Пригодным для подобной защиты оказалось 21 из 40 устройств. Экспериментаторы считают, что причиной могло являться использование аналогового микрофона (а не цифрового), отсутствие ограничений по мощности либо короткая длина проводников.

Систему, совместно разработанную азиатскими учеными, можно реализовать как съемное USB-устройство (наподобие флешки). В дальнейшем возможности TickTock планируется расширить, и она научится выявлять несанкционированный доступ к другим средствам мониторинга — камерам, измерительным блокам на гироскопах.

Напомним, для защиты смартфонов от нежелательной прослушки недавно был предложен принципиально другой подход — зашумление речи на основе предиктивного анализа. Производители портативных устройств также сами иногда принимают подобные меры повышения приватности. Так, Apple решила эту проблему на MacBook и iPad аппаратно: микрофон автоматически выключается при закрытии крышки ноутбука или чехла с пометкой MFi (Made for iPad). Компания Dell с той же целью стала добавлять специальные драйверы в Linux, а пользователям Windows 10 и macOS (с выходом Monterey) доступна визуальная индикация активности микрофона.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru