Ошибка в алгоритмах ZCash сводит на нет анонимность транзакций

Ошибка в алгоритмах ZCash сводит на нет анонимность транзакций

Ошибка в алгоритмах ZCash сводит на нет анонимность транзакций

Стало известно, что при транзакциях в криптовалюте ZCash могут возникнуть ошибки, ставящие под сомнение анонимность пользователей. Вся проблема кроется во взаимодействие двух типов адресов, предлагаемых платформой ZCash.

С одной стороны, есть прозрачные адреса Zcash (T-адреса), похожие на адреса биткоина. С другой, более защищенные Z-адреса, использующиеся для отправки и получения средств приватно, с криптографической защитой транзакций при помощи доказательства нулевого разглашения.

Как сообщает профильный ресурс cryptofeed.ru, T-адреса все начинаются с T… приставки в то время, как Z-адреса всегда начинаются с Z… приставки.

Исследователям удалось обнаружить недостаток в алгоритме, который проявляет себя при перемещении монет с «незащищённых» на «защищённые» адреса, а затем обратно. Оказалось, что в течение этой процедуры утрачивается большая доля конфиденциальности (анонимность страдает примерно на 69,1 %).

Из этого можно сделать вывод, что операции, в которых участвуют разные типы адресов, гораздо менее конфиденциальны.

«Наша эвристика была бы гораздо менее эффективна, если бы основатели, взаимодействующие с пулом, вели себя не столь предсказуемо. В частности, они всегда снимают одинаковые суммы в одни и те же промежутки времени, что позволяет отличить основателей от других пользователей», — цитирует cryptofeed.ru экспертов.

О найденных проблемах уже сообщено команде ZCash, которая приступила к исправлению ошибок, ослабляющих анонимность.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru