Читы, фейки, СМС от «школы»: дети стали мишенью для кибермахинаций

Читы, фейки, СМС от «школы»: дети стали мишенью для кибермахинаций

Читы, фейки, СМС от «школы»: дети стали мишенью для кибермахинаций

С началом летних каникул кибераналитики предупреждают: мошенники всё чаще нацеливаются на детей. У школьников появляется больше свободного времени, они активнее проводят его в интернете — а значит, становятся удобной мишенью для обмана.

Среди популярных схем — поддельные мобильные игры, фейковые аккаунты в соцсетях и сообщения от имени школы.

По данным МегаФона, в этом году стало заметно больше случаев, когда мошенники выдают себя за завучей или соцпедагогов. Ребят просят пройти регистрацию, продиктовать код из СМС или даже сообщить персональные данные родителей.

В период экзаменов нередко предлагают «доступ» к ответам или обещают раньше других рассказать результаты ЕГЭ. Только за первые пять месяцев таких эпизодов зафиксировали на треть больше, чем за весь прошлый год.

Отдельная проблема — попытки вовлечь подростков в схемы. Детям предлагают «сдать в аренду» свои аккаунты в соцсетях и мессенджерах за деньги. Потом эти профили используют для рассылки вредоносного контента, фишинга или обмана других людей — в том числе друзей или родственников жертвы.

По данным аналитиков, мошенники активно распространяют вредоносные программы и через поддельные игры. За последний год скачивание детских приложений выросло в несколько раз, и это привлекло внимание злоумышленников.

Часто фейковые версии популярных игр содержат вредоносные ссылки или программы для кражи личной информации. Такие приложения обычно распространяются через игровые чаты или соцсети — под видом «бесплатных бонусов» или «лёгкого заработка».

Кроме того, специалисты зафиксировали всплеск атак на Android-смартфоны. Особенно часто подделывают игры вроде Minecraft, Roblox, Brawl Stars и Genshin Impact. Выросло и число случаев, когда за вредоносные программы выдаются читы — инструменты, которые якобы дают преимущества в игре. Иногда вредонос прячется в модах, которые загружают на смартфон другие опасные компоненты по команде злоумышленников.

Главный совет — скачивать приложения только из проверенных магазинов, не давать им доступ к конфиденциальным данным без необходимости и быть особенно осторожными со сторонними источниками. Также стоит помнить: мессенджеры и соцсети — не менее опасные каналы, где дети могут столкнуться с угрозами. Родителям важно обсуждать эти риски и помогать детям распознавать опасные ситуации.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru