Минфин США обвинил российский НИИ в создании вредоноса Triton

Минфин США обвинил российский НИИ в создании вредоноса Triton

Минфин США обвинил российский НИИ в создании вредоноса Triton

Министерство финансов США ввело санкции против российского исследовательского института, обвинив его в участии в разработке знаменитой вредоносной программы Triton. Напомним, что этот вредонос специально создан для атак на АСУ ТП, впервые исследователи обратили на него внимание в 2017 году.

На днях Министерство финансов США опубликовало пресс-релиз, в котором разъясняется ситуация:

«В соответствии с пунктом 224 закона "О противостоянии оппонентам США посредством санкций" в отношении российского государственного исследовательского института, связанного с деструктивной вредоносной программой Triton, вводятся соответствующие санкции».

Впервые о Triton заговорили после целевой атаки на нефтехимический завод в Саудовской Аравии. Тогда эксперты заявили, что злоумышленники пытались вызвать взрыв с помощью вредоноса.

Специалисты также подчеркнули, что Triton нацелен в первую очередь на контроллеры Schneider Electric Triconex Safety Instrumented System (SIS), которые используются на промышленных предприятиях для мониторинга потенциально опасных ситуаций.

Помимо этого, Triton взаимодействует по протоколу TriStation, который нигде подробно не задокументирован. Это значит, что его операторы смогли провести обратный инжиниринг TriStation.

В Министерстве финансов США сочли, что за созданием опасного зловреда частично стоит ФГУП «Центральный научно-исследовательский институт химии и механики», одна из первых научно-исследовательских организаций в России.

Именно такую информацию в октябре 2018 года опубликовали специалисты компании FireEye, собравшие, по их словам, убедительные доказательства участия научно-исследовательского института в разработке отдельных инструментов, использованных в атаке Triton.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru