Информировать ЦБ о кибератаках будут также операторы переводов

Информировать ЦБ о кибератаках будут также операторы переводов

Информировать ЦБ о кибератаках будут также операторы переводов

Информировать Центральный банк России о киберинцидентах, в ходе которых были похищены средства, будут не только банки, но также и операторы систем денежных переводов. Банкам придется раскрывать подобную информацию более детально.

Банк России полагает, что подобный подход поможет пролить свет на реальную картину с киберхищениями в России. Это обратит внимание правоохранительных органов на проблемы кибербезопасности вроде социальной инженерии, считает регулятор.

Подход к отчетности по хищениям средств поменяет указание Банка России №4753-У. Финансовым организациям разрешат опустить технические показатели, однако заставят предоставить экономические, которые опишут последствия киберинцидентов для операторов и их клиентов.

ЦБ предлагает банкам разбивать инциденты по типам хищений — через банкомат или терминал, с использованием реквизитов, через системы дистанционного банковского обслуживания. Строго необходимо указывать похищенную сумму, а также сколько удалось вернуть из похищенных средств.

Обязательно указывать и использование в ходе хищения методов социальной инженерии. Информация об атаках на банкоматы должна представлять собой более подробный отчет.

Организации, работающие с электронными кошельками, обязаны крайне подробно детализировать инциденты — имел ли место персонифицированный или неперсонифицированный электронный кошелек, использовалась ли социальная инженерия, сколько средств удалось вернуть и тому подобное.

Основная задача Банка России — обратить внимание правоохранительных органов на проблему кибератак и хищения денежных средств с помощью них.

Также в феврале стало известно, что Центральный банк Российской Федерации планирует создать для банков систему обмена информацией о киберугрозах. В информацию, которой будут обмениваться банки с помощью этой системы, будут включены данные о счетах, используемых мошенниками для обналичивания средств.

А на прошлой неделе Центральный банк Российской Федерации подписал соглашение о кибербезопасности с Нацбанком Казахстана. Уникальность этого соглашения заключается в том, что оно стало первым в рамках Евразийского экономического союза (ЕАЭС).

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru