Курганец получил два года условно за майнинг за счет госучреждений

Курганец получил два года условно за майнинг за счет госучреждений

Курганец получил два года условно за майнинг за счет госучреждений

Киберпреступник из Кургана, пытавшийся майнить за счет серверов госучреждений, услышал свой приговор — два года лишения свободы условно. Помимо правительственных серверов, незадачливый майнер также использовал частные компании Челябинской, Орловской, Ярославской областей и Алтайского края.

В отношении жителя Кургана было возбуждено уголовное дело по части 2 статьи 273 УК РФ («Использование компьютерных программ, заведомо предназначенных для нейтрализации средств защиты компьютерной информации, совершенное из корыстной заинтересованности»).

По результатам расследования городской суд приговорил 21-летнего преступника-майнера к двум годам лишения свободы условно.

Как выяснили следователи, молодой человек давно озадачился вопросом добычи цифровой валюты. Поскольку для этого нужно довольно мощное оборудование и не обойтись без аномального потребления электроэнергии, киберпреступник решил майнить за счет сторонних ресурсов.

Чтобы получить контроль над нужными ему серверами, юноша воспользовался вредоносными программами, которые обеспечили ему возможность удаленного подключения. Об этом пишет «Ъ», ссылаясь на пресс-службу местного отделения ФСБ.

Несмотря на то, что он осуществлял свою злонамеренную деятельность с декабря прошлого года, поймать за руку его удалось только в апреле этого года. Хакера обнаружили во время кибератаки на правительство Ярославской области.

В ходе этой брутфорс-атаки злоумышленник пытался подобрать пароль, причем совершил более 100 тысяч попыток подбора за час. Команда безопасников обнаружила факт вторжения и передала информацию ФБС. После этого молодой человек был задержан.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru