Хакер под угрозой тюрьмы помог правительству США защитится от кибератак

Хакер под угрозой тюрьмы помог правительству США защитится от кибератак

Экс-лидер хакерской группировки LulzSec Эктор Монсегур, которому грозило длительное тюремное заключение за организацию кибератак и хищение данных банковских карт, согласился сотрудничать с американским правительством и помог предотвратить не менее 300 хакерских атак на сети государственных учреждений, а также сдал своих бывших соратников.

Ожидается, что уже сегодня будет вынесен приговор известному хакеру Эктору Монсегуру, бывшему лидеру группировки LulzSec, также работавшего с Anonymous. Как стало известно из документов суда, сторона обвинения просит вынести ему мягкое наказание за «экстраординарное» сотрудничество с правительством, сообщает russian.rt.com.

Из судебных документов, которые оказались в распоряжении The New York Times, стало известно, что Монсегур помог предотвратить не менее 300 кибератак на сети государственных органов, в том числе Пентагона, NASA, Конгресса США, а также частных компаний, что предотвратило многомиллионные потери.

Летом 2011 года власти США арестовали 28-летнего хакера, причастного к атакам на сайты крупных международных компаний, правоохранительных органов и правительственных ведомств. После этого Монсегур начал сотрудничать со следствием и работать в качестве информатора ФБР.

Так, он подговорил хакеров из группировки Anonymous обойти защиту интернет-сайтов государственных структур ряда стран и похитить оттуда определённую информацию, сообщает The New York Times. Впоследствии эти данные загружались на серверы, контролируемые американскими спецслужбами.

Как утверждает американская газета, на счету Монсегура и его сообщников сотни атак на правительственные учреждения Ирана, Нигерии, Сирии, Пакистана, Турции, Польши, Ирака и Бразилии, совершённых в 2012 году. По его наводке ещё семь участников Anonymous были арестованы в США, Великобритании и Ирландии. Так, интернет-активист и музыкант Джереми Хаммонд, участник международной группы хакеров Anonymous, взломавший серверы частной разведывательной компании Statfor и передавший содержавшуюся на них информацию порталу WikiLeaks, приговорён к десяти годам тюремного заключения судьёй Лореттой Преской.

Изначально Монсегуру грозил более чем 20-летний срок, но теперь, после того, как прокуратура попросила судью о снисхождении, он может провести в тюрьме менее двух лет. 

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru