Новый майнер удаляет конкурентов и использует GitHub для связи с C2

Новый майнер удаляет конкурентов и использует GitHub для связи с C2

Новый майнер удаляет конкурентов и использует GitHub для связи с C2

Специалисты Palo Alto Networks обнаружили новую технику вредоносного криптомайнинга — зловред не только удаляет все другие майнеры-конкуренты в системе, но и использует сервисы GitHub и Pastebin как часть инфраструктуры командного цента C2.

Эксперты полагают, что вредоносная программа имеет китайские корни и была создана киберпреступной группировкой из КНР, известной под именем Rocke. Майнер атакует облачные инфраструктуры, за счёт которых потом добывает цифровую валюту.

Компания, ставшая жертвой такой атаки, как правило, замечает, что ее счета за электричество существенно выросли.

«В ходе своих атак киберпреступники используют уязвимости, обнаруженные в 2016 и 2017 годах. Злоумышленники старались избежать обнаружения, поэтому проникали в систему жертвы, но не глубоко», — пишут исследователи Palo Alto Networks.

Административный доступ к облачным системам преступники получают благодаря вредоносной программе, которая может скрыть своё присутствие от традиционных методов обнаружения. Скомпрометированные системы затем связываются с IP-адресами и доменами Rocke, которые жестко закодированы в зловреде.

Изначальным вектором атаки, как в большинстве подобных случаев, выступает фишинг. Как только эта фаза увенчается успехом, вредоносная программа загрузится в систему атакованной компании из командных центров, среди которых GitHub и Pastebin.

«Киберпреступники пишут вредоносные составляющие на Python, а Pastebin и GitHub используют в качестве репозиториев для кода», — объясняют в Palo Alto Networks.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru