На «левых» антивирусах зарабатывают 10 тысяч долларов в день

На «левых» антивирусах зарабатывают 10 тысяч долларов в день

...

Создатели фальшивых антивирусов зарабатывают до 10 тысяч долларов в день, сообщает ZDnet cо ссылкой на данные разработчика систем компьютерной безопаности Finjan.

Глава компании PandaLab, создающей антивирусы, Луис Коррон (Luis Corrons) рассказал изданию, что количество вирусов, «прикидывающихся» антивирусными программами, в сети растет невероятными темпами: еще в I квартале прошлого года их было выявлено около тысячи, к концу года обнаружили уже 111 тысяч, а к 1 июля этого года — 374 тысячи вредоносных программ.

Такие «антивирусы» выдают пользователю фиктивное предупреждение об обнаружении на компьютере вируса, и просят перевести определенную сумму на указанный счет под видом оплаты рабочей версии «антивируса». При этом чаще всего, после перевода денег, вместо получения оплаченного программного обеспечения, на компьютер жертвы скачивается еще и вирус-Троян.

По данным PandaLabs, в месяц подобные фальшивые «антивирусы» заражают до 35 млн компьютеров. От 3 до 5% жертв соглашаются послать деньги. Стоимость этих «услуг» обычно составляет 30 долларов за годовую «лицензию» или 80 долларов — за пожизненную.

«Обычные пользователи зачастую даже не понимают, что их обманули. Хотя достаточно лишь знать, что настоящий антивирус никогда не установится на компьютер и не начнет проверку на наличие вирусов без разрешение пользователя», — говорит сотрудник PandaLabs Пол Коррел (Sean-Paul Correll).

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru