PIXHELL использует шум монитора для кражи данных из изолированных систем

PIXHELL использует шум монитора для кражи данных из изолированных систем

PIXHELL использует шум монитора для кражи данных из изолированных систем

Исследователи рассказали о новой атаке по сторонним каналам, получившей имя PIXHELL. В теории злоумышленники могут использовать этот вектор для извлечения конфиденциальной информации из физически изолированных устройств.

В частности, PIXHELL опирается на шум, который так или иначе создают пиксели на мониторе. Израильский специалист Мордехай Гури объясняет принцип вектора в отчёте:

«Предварительно установленная на изолированное устройства вредоносная программа должна генерировать специальные паттерны пикселей, чтобы последние вырабатывали шум в диапазоне частот от 0 до 22 кГц».

«Злонамеренный код задействует создаваемый катушками и конденсаторами звук, чтобы иметь возможность контролировать исходящие от монитора частоты. Эти акустические сигналы могут шифровать и передавать конфиденциальную информацию».

Особенность PIXHELL заключается в отсутствии необходимости использовать специализированное аудиооборудование или внутренние динамики целевого устройства, поскольку основной расчёт идёт на LCD-дисплей.

В сущности, вектор PIXHELL стал возможным благодаря индукторам и конденсаторам, которые участвуют в LCD-дисплях в качестве внутренних компонентов и источника питания.

Из-за них устройство вибрирует на слышимой частоте, так как при прохождении электричества через катушки мы получаем шум на высокой ноте — так называемый свист катушек.

На этот шум влияет число светящихся пикселей и их распределение по экрану (учитывая, что белые пиксели требуют больше энергии, чем тёмные). Кроме того, на характеристики акустического излучения влияют растровое изображение, рисунок и интенсивность пикселей на дисплее.

 

Вчера мы сообщали о схожем методе атаки — RAMBO (Radiation of Air-gapped Memory Bus for Offense). В этом случае вектор позволяет перехватывать данные непосредственно из оперативной памяти оборудования.

Не так давно Гури рассказывал о ETHERLED — способе кражи данных из физически изолированных систем, превращающем мигающий свет в азбуку Морзе, который может расшифровать потенциальный атакующий.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru