Злоумышленники импровизируют на фишинге

Злоумышленники импровизируют на фишинге

Злоумышленники импровизируют на фишинге

В новогодние каникулы случился вал тематического фишинга. Аферисты начали отходить от веерных рассылок и типовых схем и теперь практикуют индивидуальный подход к каждой жертве. Основными инструментами становятся вскрытые аккаунты реальных пользователей.

Волна фишинговых атак захлестнула россиян в рождественские праздники. 

Многие получили на каникулах сообщения якобы от друзей с призывом оказать материальную помощь пострадавшему.

Настоящей классикой стала схема с просьбой проголосовать за детский рисунок. Она начала активно распространяться еще в декабре.

Жертве приходит сообщение якобы от кого-либо из знакомых из списка контактов с просьбой принять участие в голосовании, рассказывает “Известиям” эксперт по кибербезопасности “Лаборатории Касперского” Дмитрий Галов. Для этого пользователю необходимо перейти по ссылке и осуществить процедуру подтверждения: ввести номер телефона и код верификации.

Эти данные позволяют злоумышленникам получить доступ к аккаунту жертвы и, соответственно, конфиденциальной информации, например перепискам или фотографиям, новым контактам. По ним можно провести следующую вредоносную рассылку.

Активно применялись сезонные фишинговые схемы, привязанные к праздникам. Денег лишились сотни россиян, “купившие” билеты на елки у мошенников. Причем аферисты начали продавать “пригласительные” еще в ноябре.

Официальная статистика ущерба появится только в феврале, но эксперты уже прогнозируют рост и изощренность атак в 2023 году. 

Генпрокуратура и Минцифры в начале года сообщили о готовности прототипа системы автоматического выявления фишинговых сайтов. Её данными будут пользоваться оба ведомства: Банк России и Роскомнадзор.

Вероятным путем развития киберпреступности может стать индивидуальный подход к жертве, считает эксперт в сфере ИТ-безопасности Александр Беслик. 

Идею госсистемы он поддерживает, но считает, что “нельзя сделать такой проект раз и навсегда”. Нужна команда людей, которая будет постоянно ее дорабатывать.

Если сейчас фишинговый сайт может работать и месяц, то в дальнейшем киберпреступники будут делать ресурсы, срок жизни которых составит один час.

Главный вопрос в том, насколько быстро предлагаемая система сможет находить и блокировать такие ресурсы, добавляет Беслик. Не исключено, что злоумышленники начнут работать точечно и создавать фишинговые ресурсы под конкретного человека или атаку.

Добавим, в 2023 прогнозируется рост и DDoS-атак. К весне их количество в России может вырасти на 300%, предупреждают эксперты.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru