Symantec оценила доходы создателей Flashback

Symantec оценила доходы создателей Flashback

По итогам изучения образцов вредоносной программы, инфицировавшей множество компьютеров под управлением Mac OS, антивирусная компания смогла составить примерное представление о вероятных доходах разработчиков троянского коня. По словам экспертов, прибыль злоумышленников была "баснословной".

Выводы Symantec основаны на результатах реверс-инжиниринга одной из модификаций вредоносной программы - Flashback.K. Одна из функций данной инфекции состоит в перехвате поисковых запросов в Google и переходов по рекламным ссылкам; в зависимости от того, какой запрос был введен пользователем, троянский конь может перенаправлять последнего на произвольные ресурсы по выбору разработчика программы и таким образом приносить своим создателям прибыль. Поскольку щелчок по рекламной ссылке переносит пользователя на посторонний сайт, так или иначе связанный с вирусописателями, то легитимная компания (чьи продукты и услуги рекламируются в исходном объявлении) недополучает доход, а злоумышленники, напротив, таковой извлекают. При этом Flashback использует особую идентификационную строку User-Agent, благодаря которой киберпреступники могут отделять инфицированные компьютеры от неизвестных им третьих сторон, пытающихся изучить мошенническую схему и проверить чистоту URL.

В частности, Symantec приводит данные по одному из образцов рекламы с подменой, стоимость одного перехода для которого составляет 8 центов. Если принять в расчет общее количество зараженных ПК, которое на момент обнаружения вредоносной сети превышало половину миллиона, то выходит, что злоумышленники могли "зарабатывать" до 10 000 долларов США в день, нанося равнозначные убытки рекламодателям и Google. Хотя данные расчеты носят скорее теоретический характер, они в любом случае позволяют получить определенное представление о потенциальной доходности киберкриминальной схемы.

Напомним, что Flashback поражал компьютеры Apple посредством критической уязвимости в Java, которая оставалась открытой для эксплуатации в течение почти двух месяцев. Это временное окно позволило разработчикам вредоносной программы инфицировать рекордное количество машин; по некоторым оценкам, в свои лучшие дни сеть Flashback могла насчитывать до 800 000 зараженных ПК.

PC World

Письмо автору

" />

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru