5 самых опасных средств киберсаботажа

5 самых опасных средств киберсаботажа

Специалисты «Лаборатории Касперского» проанализировали ежедневно обрабатываемые вредоносные объекты, обратив особое внимание на увеличение количества деструктивных программ типа Wiper. Экспертами был составлен обзор 5 самых заметных инцидентов, связанных с использованием подобных зловредов, действия которых за последние годы нанесли ощутимый ущерб целому ряду стран.

Программы типа Wiper уничтожают данные, находящиеся на зараженном компьютере. Несмотря на то, что в общем потоке вредоносного ПО их немного (в большинстве случаев зловреды применяются с целью наживы), за последние годы частота использования подобных программ заметно возросла.

Как показывают мзученные 5 случаев заражения, зловреды действуют разными методами. К примеру, поразивший немало жертв в 2012 году Wiper уничтожал информацию на жестком диске. ТехникаShamoon, атаковавшего более 30000 компьютеров нефтяной компании в Саудовской Аравии, была аналогичной: эта программа стирала все данные с компьютера, выводя его из строя. Вариацию стратегии Shamoon продемонстрировал Groovemonitor, уничтожающий данные в определенные, прописанные в коде даты. А самый изощренный метод был реализован червем Narilam в ноябре 2012 года: будучи нацеленным на используемые преимущественно в Иране программы работы с базами данных, червь незаметно искажал вносимые данные и чем дольше он функционировал, тем более разрушительными оказывались последствия его работы.

Согласно статистике, большая часть атак программ типа Wiper за последние несколько лет была нацелена на Ближний Восток. Эти инциденты показали также, что подобное вредоносное ПО может применяться как высокоэффективное кибероружие – возможность удалить данные с десятков тысяч компьютеров нажатием кнопки или одним кликом мыши является мощным оружием для любой киберармии.

«Атаки в стиле Wiper в наши дни достаточно редки. Однако, учитывая, что каждый день появляется информация о новых пробелах в безопасности критически важной инфраструктуры, подобные атаки потенциально чрезвычайно опасны. В обозримом будущем они могут стать более популярными и, например, использоваться в качестве способа нанесения удара по критически важной инфраструктуре в точно выбранное время, что приведет к значительному ущербу», – прокомментировал Костин Раю, руководитель глобального центра исследований «Лаборатории Касперского».

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru