Linux io_uring помогает руткиту спрятаться от бдительного ока EDR

Linux io_uring помогает руткиту спрятаться от бдительного ока EDR

Linux io_uring помогает руткиту спрятаться от бдительного ока EDR

Эксперты ARMO создали руткит, способный с успехом скрываться в системе за счет использования механизма асинхронного ввода-вывода io_uring. Этот интерфейс ядра Linux создал слепую зону для средств защиты, отслеживающих системные вызовы.

PoC-руткит, именуемый Curing, незаметно подключается к своему серверу и умеет по команде получать доступ к файлам на чтение/запись, создавать симлинки, запускать процессы. Все операции, включая отправку отчетов, выполняются через io_uring.

Механизм io_uring был реализован еще в Linux 5.1 с целью повышения эффективности коммуникаций между пространством пользователя и ядром. Интерфейс позволяет выполнять множество операций (поддерживается более 60, в том числе файловые и сетевые) без использования системных вызовов, которые тормозят и подвешивают процессы.

Вместе с тем многие коммерческие ИБ-решения для Linux класса EDR при мониторинге среды выполнения полагаются на перехват системных вызовов и игнорируют все, что связано с io_uring.

Тестирование Curing с помощью популярных инструментов защиты Linux и контейнерных сред почти во всех случаях показало нулевой уровень детектирования.

Кураторы opensource-проекта Falco подтвердили наличие проблемы и работают над плагином, позволяющим создавать LSM-хуки с помощью eBPF. Столь же быстро отреагировали в CrowdStrike, для Falcon уже создан фикс, добавляющий обзор файловых операций на базе io_uring.

В SentinelOne сразу заявили, что подобный обход их продукту не страшен, однако внимательно выслушали и даже помогли с тестами.

Опенсорсный Tetragon (мониторинг вызовов в ядре Linux на основе eBPF в реальном времени) в дефолтной конфигурации не смог обнаружить вредоносную активность, однако разработчики уверены, что его можно подстроить и под такие руткиты, как Curing.

Продукт Microsoft Defender for Endpoint задетектил только модификацию файлов, но вендор никак не отреагировал на многочисленные попытки установить контакт.

 

Код Curing выложен для ознакомления и дальнейшего тестирования на GitHub.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru