Угонщики Telegram- и WhatsApp-учёток могу зарабатывать до 2,5 млн в месяц

Угонщики Telegram- и WhatsApp-учёток могу зарабатывать до 2,5 млн в месяц

Угонщики Telegram- и WhatsApp-учёток могу зарабатывать до 2,5 млн в месяц

Исследователи из F.A.C.C.T. изучили работу фишинговых веб-панелей, с помощью которых киберпреступники угоняют аккаунты россиян в мессенджерах, и пришли к выводу, что злоумышленники могут зарабатывать таким образом приличные деньги — до 2 500 000 рублей в месяц.

Чаще всего страдают владельцы учётных записей Telegram и WhatsApp (принадлежит Meta, признанной экстремистской и запрещенной в РФ).

Например, с одной панели в первом полугодии 2024-го киберпреступники создали не менее 900 ресурсов, помогающих перехватывать контроль над аккаунтами граждан.

Аналитики CERT-F.A.C.C.T. отмечают волнообразный характер таких атак. Telegram-аккаунты фишеры начали угонять ещё в декабре 2022 года. За это время функциональные возможности и автоматизация фишинговых веб-панелей заметно подросли.

Специалисты выявили в общей сложности шесть веб-панелей, которые злоумышленники используют для создания фишинговых ресурсов. Почти все они были нацелены на кражу учёток Telegram, лишь одна панель «отрабатывала» пользователей WhatsApp.

В период с января по июнь 2024 года одна такая панель смогла выдать более 900 веб-сайтов. Наиболее часто встречаются фишинговые страницы в доменах .ru, .online, .shop, .site, .website.

Интересно, что киберпреступники теперь выводят деньги не только с помощью денежных призов, бесплатных подписок и тому подобного, но и через относительно новые способы: игру Hamster Kombat и фейковый сервис с нейросетью «Раздень подругу».

На соответствующих форумах можно продать логи в среднем за 150 рублей. Прибыль наиболее опытного «угонщика» может составлять от 600 000 до 2 500 000 рублей в месяц.

Напомним, в этом месяце мы сообщали о прибыли мошенников, работающих по схеме «Мамонт». В период с июля 2023 года по июнь 2024-го они суммарно украли у граждан более 1,2 млрд рублей.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru