Anonymous требуют легализовать DDoS-атаки

Anonymous требуют легализовать DDoS-атаки

Маргинальное хакерское движение Anonymous, известное многочисленными атаками на сайты компаний и государственных организаций, разместили на сайте Белого дома петицию с требованием легализовать DDoS-атаки в качестве формы политического протеста, следует из текста обращения.

Авторы петиции утверждают, что DDoS-атака не является хакерской, поскольку в ее ходе взлом сайтов не производится, а значит, это не является преступлением.

«DDoS-атака эквивалентна ситуации, в которой множество пользователей заходят на определенный сайт и часто нажимают кнопку „обновить" в браузере. Это мало чем отличается от обычных уличных протестов, когда множество людей собираются в определенном месте и объявляют о своем несогласии», — говорится в тексте петиции.
Такая характеристика DDoS-атаки, по мнению Anonymous, дает основание использовать ее в качестве средства выражения политического протеста, а также повод освободить из тюрьмы всех осужденных за организацию и проведение DDoS-атак, пишет digit.ru.

Для того, чтобы петиция была принята к рассмотрению Белым домом, ей нужно до 6 февраля набрать 25 тысяч голосов пользователей сети. По состоянию на четверг 16.40 мск, свое согласие выразили 860 пользователей.

Движение Anonymous громко заявило о себе в конце 2010 года, начав операцию «Расплата» (PayBack), в рамках которой мощным DDoS-атакам подверглись сайты некоторых платежных систем и госорганизаций, причастных, по мнению интернет-активистов, к аресту основателя сайта Wikileaks Джулиана Ассанжа. Весной 2011 года Anonymous также успешно атаковали серверы компании Sony, в результате чего японская корпорация понесла многомиллиардные убытки.

Впоследствии практически ни один политический конфликт, в какой бы стране он ни происходил, не обходился без тех или иных действий Anonymous. Обычно хакеры либо обещали вывести из строя какой-нибудь сайт, либо — украсть и опубликовать конфиденциальные данные. Однако чаще всего сайты удавалось вывести из строя максимум на сутки, а данные, которые публиковали Anonymous в виде эксклюзивного компромата, оказывались никому не нужным массивами информации, полученной с плохо защищенных или вовсе не защищенных интернет-серверов.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru