Trusteer обвинили в краже кода

Trusteer обвинили в краже кода

Конкурент известного поставщика защитных решений - компания Blue Gem Security - оформила иск в суд, в котором утверждается, что продукты Trusteer содержат фрагменты кода, принадлежащего к программным разработкам истца. Ответчик решительно возражает и готов доказывать свою невиновность.


Юристы Blue Gem намерены потребовать возмещения материального ущерба в размере 18 млн. долларов за то, что специалисты Trusteer скопировали у их компании и вставили в свое решение Rapport участки кода, отвечающие за совместимость антикейлоггерного программного обеспечения с различными типами чипсетов Intel. В сущности, эти фрагменты представляют собой единый модуль, который Blue Gem называет "Intel Compatibility Code"; истец заявляет, будто в продукте Trusteer данный модуль воспроизведен практически дословно.

В частности, в иске указывается, что средство обеспечения безопасности транзакций Rapport содержит специфические элементы Intel Compatibility Code, которые программисты Trusteer не имели бы никаких оснований включать в свой продукт, если бы они писали код самостоятельно. Например, рассматриваемое программное решение использует проверку двух условий, аналогичных тем, что применяются в разработке Blue Gem Total Privacy, дабы понять, не является ли компьютер образцом определенной модели ноутбуков Toshiba; заявители отмечают, что "это нестандартный, особый способ, созданный специально для выявления конкретного типа компьютера, который вызывал проблемы в работе Total Privacy".

Также в исковом заявлении говорится, что Rapport заменяет данные о кодах нажатых пользователем клавиш на идентификаторы 0xFA; в продукте Blue Gem для подмены сведений используется точно такая же подставная величина. Подобное явление также не кажется юристам истца простым совпадением - есть множество других вариантов, которые могли бы выбрать программисты Trusteer, будь их код авторским.

На основании всех этих совпадений Blue Gem заключает, что специалисты конкурента дезассемблировали или декомпилировали ее продукты, извлекли интересовавший их код и внедрили в свое защитное решение. Руководство Trusteer, в свою очередь, заявило, что все это "ложные и безосновательные обвинения", которые компания-ответчик будет опровергать в ходе судебных разбирательств.

The Register

Письмо автору

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru