Google Glass умеют тайно распознавать пин-коды устройств

Google Glass умеют тайно распознавать пин-коды устройств

Как выяснили специалисты, Google Glass умеют распознавать пароли, сообщает New Zealand Herald. Команда учёных во главе с профессором Ксинвен Фю из Университета Лоуэлл Массачусетс применили программу, которая анализирует движения пальцев людей и отбрасываемые ими тени, а затем определяет введенные на экранах смартфонов и планшетов пин-коды.

Среди протестированных девайсов были Google Glass, iPhone 5, смарт-часы Samsung и веб камера Logitech. При помощи видео, записанного с Google Glass, удалось расшифровать 4х-значный код с точностью 83%, а результаты веб камеры оказались еще более высокими - пароли были достоверными на 92%, сообщает russian.rt.com.

Надо отметить, что похожие программы создавались и в прошлом, однако никогда ранее технологии не могли декодировать ПИН-код с нечитаемого дисплея.

Фю также отмечает, что «Glass – это идеальное устройство для подобных операций, потому что они находятся на вашей голове и читают информацию незаметно для окружающих, в отличие, например, от iPhone, который придется держать непосредственно над экраном устройства, чтобы распознать пароль».

В ответ на результаты исследования Google опубликовал свой комментарий: «Когда мы создавали Glass, мы позаботились о праве каждого на защиту конфиденциальности частной информации, поэтому, когда Glass включены, на них загорается сигнал, который нетрудно заметить, так что это устройство бесполезно при слежке».

Между тем, возможности устройств так велики, что исследователям удалось расшифровать пин-код с расстояния 45 метров при использовании функции оптического приближения на видеокамере.

К счастью, для этой проблемы есть решение – это приложения, каждый раз перемешивающие различные схемы ПИН-кодов. Если программа не знает, какая схема используется, значит она не может определить, какие кнопки нажимаются. Фю со своей командой и сами создали такое приложение для Android и надеются, что оно будет выпущено уже в августе.

Киберпреступники могут использовать Copilot и Grok как сервер управления

ИИ-ассистенты с доступом к вебу можно использовать как «посредников» для управления заражёнными компьютерами. К такому выводу пришли исследователи Check Point, показав, как Grok и Microsoft Copilot могут быть задействованы в схеме командного сервера (C2) атакующих.

Идея простая, но изящная. Вместо того чтобы вредоносная программа напрямую связывалась с сервером злоумышленника (что часто отслеживается и блокируется), она обращается к веб-интерфейсу ИИ.

А уже тот по инструкции запрашивает нужный URL и возвращает ответ в своём тексте. В итоге ИИ становится своеобразным «ретранслятором» между атакующим и заражённой машиной.

В демонстрационном сценарии Check Point использовала компонент WebView2 в Windows 11, он позволяет встроить веб-страницу прямо в приложение. Исследователи создали программу на C++, которая открывает WebView с Grok или Copilot и передаёт ассистенту инструкции. Даже если WebView2 отсутствует в системе, злоумышленник может доставить его вместе с вредоносной программой.

 

Дальше схема выглядит так: атакующий размещает на своём сервере зашифрованные данные или команды. Вредонос обращается к ИИ и просит, например, «получить и суммировать содержимое страницы». Ассистент возвращает ответ, а зловред извлекает из текста нужные инструкции. В обратную сторону можно передавать и украденные данные — также в зашифрованном виде.

 

Так создаётся двусторонний канал связи через легитимный ИИ-сервис. Поскольку обращения идут к доверенному ресурсу, системы фильтрации трафика могут не заподозрить ничего необычного.

Примечательно, что в PoC не требовались ни API-ключи, ни учётные записи. Это усложняет блокировку: нельзя просто «отозвать ключ» или заблокировать аккаунт, как в случае злоупотребления облачными сервисами.

Исследователи отмечают, что у платформ есть механизмы защиты от явно вредоносных запросов. Однако их можно обойти, если передавать данные в виде зашифрованных фрагментов с высокой энтропией — тогда для ИИ это просто «бессмысленный текст», который он честно перескажет или обработает.

В Check Point подчёркивают, что использование ИИ как C2-прокси — лишь один из возможных сценариев злоупотребления. Теоретически модели могут применяться и для анализа окружения жертвы: стоит ли продолжать атаку, какие действия менее заметны и т. д.

RSS: Новости на портале Anti-Malware.ru