G Data предупреждает геймеров об опасности

G Data предупреждает геймеров об опасности

...

Специалисты компании G Data провели анализ атак на участников игрового сообщества. Главной целью преступников является похищение личных данных геймеров для торговли учетными записями, которая приносит мошенникам большие деньги. «Аккаунты хороших игроков в Германии стоят около сотни евро, в странах Азии преступники готовы заплатить более 10 тысяч долларов США за подобную информацию. Это объясняет, почему онлайн-грабители настолько заинтересованы в геймерах», — говорит Ральф Бенцмюллер, руководитель лаборатории безопасности компании G Data.



Процесс кражи персональных данных в онлайн-сообществах выглядит так: преступники регистрируются на форумах и в чатах, выдавая себя за службу поддержки производителя игры. Под предлогом оказания помощи в проблемных игровых ситуациях они связываются с жертвами. По мнению специалистов G Data, хакеры нацелены, прежде всего, на новичков, так называемых newbies («нубы»). Для прохождения определенных уровней игры у пользователя запрашиваются персональные данные доступа к игре. Если жертва отвечает на запрос и отправляет коды доступа, ловушка закрывается, и дорогой игровой аккаунт получает нового владельца.

В течение шести месяцев эксперты лаборатории безопасности G Data проводили анализ 66,5 тысяч фишинг- и вредоносных сайтов. Они выясняли, какой процент сайтов содержит угрозы для посетителей. Результат оказался неожиданным: 6,5 % проанализированных страниц относятся к тематической области «Игры» и ориентированы на онлайн-игроков. Из них многопользовательские ролевые онлайн-игры (MMORPG) с результатом 35 % занимают первое место. Самыми популярными стали World of Warcraft, Metin 2, Runescape и Tibia.

Самыми опасными атаками, по результатам анализа, стали фишинговые нападения. Процесс захвата данных выглядит следующим образом: на своем сервере взломщики регистрируют оригинальный веб-сайт, похожий на оригинальный сайт производителя игры, и ждут посетителей. Как только игрок вводит свой пароль на фальшивую Интернет-страницу, хакеры похищают регистрационные данные.

На чёрных онлайн-рынках, по оценкам специалистов G Data, продаётся любой товар: от аккаунтов платных поставщиков услуг и аукционных онлайн-домов, документов, удостоверяющих личность, данных кредитных карт до данных доступа и ключей для программ и игр. Цены варьируются в зависимости от объема предоставленных данных, популярности игры и уровня игрока.

Источник

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru