Шифровальщик Shade атакует российские компании от лица Рольф и РБК

Шифровальщик Shade атакует российские компании от лица Рольф и РБК

Шифровальщик Shade атакует российские компании от лица Рольф и РБК

Российские компании столкнулись с новой волной атак знаменитой программы-шифровальщика Shade (также известна под именами No_more_ransome, Da Vinci, Troldesh). На этот раз фишинговые рассылки, призванные установить на компьютер жертвы Shade, зафиксировали специалисты международной компании Group-IB.

В ходе новых атак киберпреступники рассылают электронные письма от имени уважаемых крупных авиакомпаний, автодилеров и СМИ. В этом месяце было замечено 1100 таких писем, а во втором квартале 2019 года — 6 тысяч.

Исследователи Group-IB предупреждают российские компании: вредоносная кибероперация все еще активна. Следовательно, стоит крайне внимательно относиться ко всей входящей электронной почте.

Согласно своей основной задаче, Shade в этих атаках шифрует файлы жертвы и требует выкуп. При этом злоумышленники защитили командный сервер (C&C), разместив его в сети Tor.

Благодаря тому, что C&C постоянно перемещается, заблокировать его не так легко. А факт продажи вымогателя на площадках даркнета способствует постоянной модификации вредоноса.

Эксперты также отметили: в последних атаках Shade не только шифрует файлы, но и добывает цифровую валюту, а также генерирует трафик на сайты для увеличения посещаемости и доходов от онлайн-рекламы.

В результате за второй квартал 2019 года масштаб атак Shade увеличился почти в 2,5 раза в сравнении со всем 2018 годом.

В последних операциях киберпреступники маскировали свои письма под отправленные популярными компаниями уведомления. Среди этих компаний специалисты выделяют «Полярные авиалинии», «Рольф», РБК и Новосибирск-online.

В теле такого письма злоумышленник представляется сотрудником компании и просит открыть вложенный в письмо файл, который якобы содержит подробности «заказа». Для атак преступники используют и зараженные IoT-устройства, среди которых есть роутеры.

В январе специалисты в области кибербезопасности из антивирусной компании ESET в своем блоге опубликовали информацию о новой атаке шифровальщика Shade, который был нацелен на российский бизнес.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru