Для защиты от кибератак в России будут привлекать хакеров

Для защиты от кибератак в России будут привлекать хакеров

Россия выступает за принятие международной конвенции против кибервойн, заявил сегодня помощник президента РФ Игорь Щеголев. При этом он считает, что можно присмотреться к опыту других стран по привлечению хакеров на работу в госведомства в целях самообороны.

Правила взаимодействия во "всемирной паутине" должны быть глобальными, убежден Щеголев.

По его сведениям, конвенция против кибервойн сейчас инициируется. "Россия, в частности, хотела бы, чтобы такая конвенция была принята. В идеале киберпространство должно быть объявлено демилитаризованной зоной", - сказал помощник президента РФ в эфире телеканала "Россия 24", передает biztass.ru.

Однако, по словам Щеголева, эта идея нравится не всем. "Те, у кого ключи от интернета, не спешат с этим соглашаться и открыто говорят, что рассматривают интернет как поле ведения разного рода боевых действий", - отметил он.

По словам Щеголева, в ряде стран руководители ведомств открыто агитируют хакеров вступать в ряды защитников страны.

"Это широко публично обсуждается, руководители ведомств сами ходят на эти встречи и просто зазывают к себе на работу. Если это делают в других странах, то, наверное, логично было бы задуматься над этим в России", - считает Щеголев. Он отметил, что хакеры, "как правило, очень толковые грамотные ребята, многие из которых патриотично настроены".

По мнению Щеголева, ни в одной стране в интернете не существует пространства, которое было бы полностью защищено от кибератак. Это, по его словам, трансграничное явление, очень часто атаки ведутся с компьютеров из-за границы.

"Пока единых правил здесь, к сожалению, нет. Россия всячески настаивает, чтобы мы взяли и договорились, но нас не всегда слышат", - признал помощник президента РФ.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru