Microsoft Defender стал блокировать криптомайнеры с помощью Intel TDT

Microsoft Defender стал блокировать криптомайнеры с помощью Intel TDT

Microsoft Defender стал блокировать криптомайнеры с помощью Intel TDT

В Microsoft Defender введена поддержка детектирования скрытых майнеров с использованием технологии Intel TDT. Опция, позволяющая обнаружить таких зловредов на уровне процессора, доступна только пользователям коммерческой версии инструмента защиты — Microsoft Defender for Endpoint.

Разработанная в Intel технология TDT (Threat Detection Technology) предполагает использование аппаратной телеметрии и эвристик для детектирования угроз, способных обойти антивирусную защиту уровня операционной системы. Анализ подозрительной активности при этом проводится с помощью средств машинного обучения, а вся нагрузка по мониторингу и анализу телеметрических данных выносится на графический процессор — GPU.

Согласно пояснению Microsoft, криптомайнеры при работе часто повторяют одни и те же математические операции. В процессорах Intel такую повышенную активность отслеживает блок контроля производительности PMU (Performance Monitoring Unit). При превышении заданного предела на выполнение однотипных инструкций этот сторож инициирует запуск алгоритма машинного обучения, способного распознать цифровой отпечаток зловреда, нацеленного на скрытную добычу криптовалюты.

 

Технология TDT в настоящее время доступна на платформах Intel vPro и Intel Core. По оценке чипмейкера, эту аппаратную защиту предлагают около 1 млрд компьютеров на рынке. Разработчики продуктов Microsoft впервые опробовали TDT в 2018 году с целью ускорения сканирования памяти процессов, выполняемого Windows Defender Advanced Threat Protection (ныне Microsoft Defender for Endpoint).

В начале этого года стало известно, что Intel расширила функциональность TDT, добавив возможность детектирования вымогательских программ, и ею уже собирается воспользоваться ИБ-компания Cybereason. Аналогичные планы вынашивает Microsoft, не желая ограничиваться криптомайнерами. Не исключено, что со временем ее Defender сможет на основе TDT эффективно блокировать даже атаки по стороннему каналу.

К сожалению, это нововведение недоступно пользователям бесплатного Microsoft  Defender, который входит в комплект всех Windows 10.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru