Россиянина задержали в Южной Корее по подозрению в связи с TrickBot

Россиянина задержали в Южной Корее по подозрению в связи с TrickBot

Россиянина задержали в Южной Корее по подозрению в связи с TrickBot

Россиянин, которого подозревают в киберпреступлениях, задержан в международном аэропорту  города Сеул. Гражданину вменяют разработку кода по заказу известной киберпреступной группировки, стоящей за распространением ботнета TrickBot.

Подозреваемого арестовали при попытке покинуть Южную Корею и вернуться в Россию. Интересно, что из-за пандемии коронавирусной инфекции COVID-19 задержанный более полутора лет не мог уехать из Южной Кореи.

Господин А., как называют подозреваемого местные СМИ, прибыл в страну в феврале 2020 года. Когда COVID-19 начал бушевать по всему миру, господин А. не смог уехать из-за введённых ограничений.

Пока подозреваемый вынужденно находился на территории чужой страны, срок действия его паспорта истёк. Российское посольство откликнулось и инициировало процедуру замены документа, удостоверяющего личность.

К сожалению для господина А., в это время как раз полным ходом шло расследование операций ботнета TrickBot, который подозревается в кибератаках на государственные организации США. Именно по этому делу и задержали пребывающего в Южной Корее россиянина.

Задержанного обвиняют в написании браузерных компонентов для киберпреступной группировки. Как предполагает сторона обвинения, господин А. занимался этой деятельностью в 2016 году.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru