ФБР США блокировало деятельность ботнета Coreflood

ФБР США блокировало деятельность ботнета Coreflood

Американские правоохранительные органы сообщили о закрытии еще одной крупной ботсети, управляемой международной преступной группировкой с участием русскоязычных хакеров. Всего закрытая бот-сеть контролировала более 2 млн компьютеров по всему миру, с которых ранее при помощи злонамеренного ПО похищала личные данные пользователей.



 Троян Coreflood Trojan заражал пользовательские компьютеры по всему миру и похищал персональные данные и возможные платежные реквизиты, хранившиеся на компьютерах, передавая их на контрольные серверы, управляемые хакерами. Coreflood также заражал компьютеры кейлоггерами, похищавшими пользовательские логины и пароли. Несколько раз ботсеть Coreflood применялась для проведения DDoS-атак, передает cybersecurity.

В ФБР США говорят, что операторы данной сети использовали похищенные банковские реквизиты пользователей для проведения незаконных финансовых операций, в том числе для перевода денег на свои счета. Точный размер похищенных денег пока неизвестен, но в ФБР уверены, что команда операторов Coreflood вполне могла получить до 10 млн долларов за счет своих незаконных операций.

Впрочем, в компании McAfee говорят, что оценка ФБР довольно консервативна и если учесть выручку от DDoS-атак и транзитных операций с банковскими счетами, то хакеры вполне могли сгенерировать до 100 млн долларов.

В сообщении ФБР сказано, что в апреле они получили решение суда по отключению всех Coreflood-серверов, работающих в США. Также суд заблокировал 29 доменных имен, используемых злоумышленниками. Одновременно с закрытием ботнета, ФБР сообщило о подаче гражданского иска против 13 неназванных операторов сети. Также в иске указывается, что в результате их деятельности одна из компаний Мичигана потеряла 115 771 доллар, юридическая компания из Южной Каролины потеряла 78 421 доллар, а оборонный подрядчик из Теннесси потерял 241 866 долларов.

В расследовании, связанном с Coreflood также принимала участие компания Microsoft и полиция США. В Microsoft говорят, что их компания совместно с правоохранительными органами США продолжит лоббировать законопроект, позволяющий блокировать командные серверы ботнетов без решения суда, но по постановлению полиции или ФБР и при предоставлении оператору доказательств незаконных операций их клиентов.



Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru