Критический баг в одобренном НАТО файрволе Genugate убрали за четыре дня

Критический баг в одобренном НАТО файрволе Genugate убрали за четыре дня

Критический баг в одобренном НАТО файрволе Genugate убрали за четыре дня

Возможность обхода аутентификации, выявленная в веб-интерфейсах Genugate, позволяла получить доступ к защищенным устройствам во внутренней сети организации и перенаправить ее трафик на сторонний прокси-сервер. Получив отчет о критической уязвимости, разработчик файрвола устранил ее за четыре дня.

Межсетевой экран Genugate производства Genua представляет собой гибридное программно-аппаратное решение, объединяющее функции пакетного фильтра и шлюза уровня приложений. При этом обе системы устанавливаются на раздельных устройствах. Эффективность этого защитного комбайна высоко оценило правительство Германии; уровень защиты конфиденциальных данных, который обеспечивает Genugate, соответствует требованиям НАТО и Евросоюза.

Уязвимость в файрволе, зарегистрированную под идентификатором CVE-2021-27215, обнаружили в конце января исследователи из SEC Consult (ныне в составе ИТ-компании Atos). Согласно их бюллетеню, причиной появления проблемы является отсутствие проверки данных, вводимых пользователем.

Наличие такого недочета открывает возможность для входа в панель управления из-под любого аккаунта — даже как суперпользователь или несуществующий пользователь. Результатом подобной атаки может быть полная смена настроек файрвола: установленных правил и политик, почтовых фильтров, дополнительной защиты приложений, разрешений на проксирование трафика и т. п.

Эксплуатация уязвимости требует наличия сетевого доступа к Genugate и осуществляется через манипуляцию параметрами запроса HTTP POST при входе в веб-интерфейс. Нормативы для сетей, оперирующих секретными данными, предполагают ограничение доступа к админ-интерфейсам из общей сети. Тем не менее, наличие такой уязвимости, как CVE-2021-27215, — это очень серьезный прокол, требующий от разработчика быстрой реакции.

Наличие проблемы подтверждено для всех прежних выпусков Genugate. Патчи вышли 2 февраля в составе сборок 9.0 / 9.0 Z p19, 9.6 p7 и 10.1 p4. Авторы находки создали экспериментальный эксплойт, но публиковать подробности пока не стали — лишь выложили на YouTube ролик, демонстрирующий PoC-атаку.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru