Рассылки Silence велись с российских серверов и поразили ЦБ масштабом

Рассылки Silence велись с российских серверов и поразили ЦБ масштабом

Рассылки Silence велись с российских серверов и поразили ЦБ масштабом

Центральный банк России заинтересовался информацией об атаках киберпреступной группировки Silence. В первую очередь ЦБ поразил масштаб вредоносной кампании, в ходе которой одному лишь Сбербанку было направлено 1,5 тысяч вредоносных писем. Еще один интересный момент, который отметил регулятор, — рассылка осуществлялась с серверов, расположенных в России.

Центробанк на прошлой неделе разослал кредитным организациям предупреждения об атаках Silence, среди прочей информации в них говорилось о том, что группировка распространяет вредоносную программу, прикрываясь несуществующими банками: ICA, «Урал Развитие», «Финансовая перспектива», CCR, ЮКО, «БанкУралпром».

Также злоумышленники использовали тему приглашения на форум iFIN-2019 в качестве приманки.

Подробнее об атаке рассказали представители Сбербанка, слова которых предоставил «Ъ»:

«На средствах защиты по состоянию на 18 января зафиксированы и успешно заблокированы 1,5 тыс. вредоносных писем, имеющих отношение к рассылке Silence. Рассылка продолжается, мы осуществляем усиленный контроль развития данной серии атак».

Со своей стороны, Банк России отметил, что масштабы кампании, конечно, выходят за рамки стандартных, однако нельзя сказать, что был отмечен «чрезвычайно большой объем» вредоносных электронных писем.

Помимо этого, специалисты говорят о грамотном использовании социальной инженерии, которое продемонстрировали представители Silence. Например, операционный директор центра мониторинга и реагирования на кибератаки «Ростелеком-Solar» Антон Юдаков заявил следующее (также цитата «Ъ»):

«Достаточно серьезно вкладываясь в инструменты, эта группировка обычно очень мало модифицирует и усложняет "социальный" вектор рассылки, используя типовые фишинговые уловки. Однако на этот раз присутствовал крайне правдоподобный текст письма, идеально повторяющего официальное приглашение на профильную конференцию».

На прошлой неделе мы писали, что киберпреступная группа Silence организовала новые атаки. В ходе вредоносных рассылок, которые уже успели пройти с начала года, были атакованы 80 000 получателей — сотрудников российских кредитно-финансовых организаций, среди которых основную долю занимают банки и крупные платежные системы.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru