В AES обнаружен серьезный недостаток

В AES обнаружен серьезный недостаток

Исследователи в области криптографии еще на один шаг приблизились к возможности взлома алгоритма шифрования AES. В результате смоделированной атаки оказалось, что  скорость расшифровки ключа в четыре раза выше, нежели ранее предполагалось.

Трое специалистов Андрей Богданов, Дмитрий Ховратович и Кристиан Рехбергер, в результате своей исследовательской работы, в рамках проекта Microsoft Research выяснили, что на самом деле длина ключа шифрования короче на 2 бита. То есть, как пояснили ученые, ключ AES-128 на самом деле имеет 126 битное слово, AES-192 -190 бит, а AES-256 это AES-254.

Заметим, что многие исследователи проверяли AES на прочность, однако серьезных уязвимостей у него обнаружено не было. Настоящая атака применима ко всем версиям AES. Однако, усилия на нее придется затратить гигантские: количество итераций для поиска ключа к AES-128 выражается числом 8*1037; у 1 трлн компьютеров, способных проверять по 1 млрд ключей в секунду, на поиск ключа уйдет 2 млрд лет. Для сравнения, ныне существующие компьютеры могут проверять лишь по 10 млн ключей за секунду. Таким образом, практического влияния на безопасность AES атака не имеет, но это первый серьезный недостаток, обнаруженный в алгоритме и подтвержденный его разработчиками.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru