США: сотрудницу банка арестовали за торговлю номерами счетов

США: сотрудницу банка арестовали за торговлю номерами счетов

В США сотрудницу банка арестовали за незаконную продажу большого количества данных счетов клиентов этого учреждения различным злоумышленникам.



Как сообщает CNews со ссылкой на издание Northjersey, работница банка TD Bank в городе Элмвуд-Парк Давасия Вилльямсон (Davasia Williamson) была арестована еще 28 февраля по подозрению в причастности к банковскому мошенничеству. 

В ходе следствия выяснилось, что Вилльямсон в течение несколько месяцев, с ноября 2010 г., продавала данные счетов клиентов своего банка ряду лиц. Всего она передала злоумышленникам доступ примерно к десяти счетам с крупными суммами, говорится в отчете правоохранительных органов.

В результате ее действий мошенники украли со счетов сумму в размере $39,900. Банк возместил своим клиентам ущерб. Другие лица, причастные к этим преступлениям, пока не найдены.

Сотрудницу банка обвиняют в краже компьютерных данных, краже персональной информации, заговоре с целью осуществления кражи с помощью компьютерных сетей и краже путем обмана.

«Банку повезло, что аппетиты инсайдера были относительно скромными, и возместить клиентам пришлось совсем не большую сумму — жаль только, что не из карманов топ-менеджеров. Ведь истинным виновником инцидента является не столько корыстная сотрудница, сколько руководство банка, просмотревшее такую грубую брешь в системе информационной безопасности, которая позволила инсайдеру беспрепятственно действовать на протяжении четырех месяцев», - отметил Александр Ковалев, директор по маркетингу компании SecurIT, российского разработчика DLP-решений.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru