Фальшивые «девушки» в Telegram втягивают в криптоскам

 Фальшивые «девушки» в Telegram втягивают в криптоскам

 Фальшивые «девушки» в Telegram втягивают в криптоскам

Мошенники придумали новую схему: знакомятся с жертвами под видом девушек и втягивают их в криптоаферу через телеграм-ботов. Чаще всего такие «знакомства» начинаются на сайтах для общения или в тематических телеграм-ботах. Девушки из анкет якобы «успешны, независимы и ищут интересного собеседника».

Чтобы казаться настоящими, мошенники используют заранее заготовленные аудио и видео, записанные настоящими людьми.

Выявить фейковую анкету можно по ряду признаков: возраст — чаще всего 23–27 лет, общие фразы в описании («люблю путешествовать, фильмы, ЗОЖ»), качественные фотографии, город — обычно средний по размерам (от 200 до 600 тысяч жителей).

Иногда указывается профессия — трейдер, но не всегда. После публикации анкеты исполнителям советуют поставить пару лайков и ждать, когда жертва напишет первой.

Переписка начинается с лёгкого флирта, пересылаются голосовые сообщения и «кружочки» — короткие видео. Это может длиться от пары часов до нескольких дней. Задача — вызвать доверие и интерес. В какой-то момент «девушка» упоминает, что сделала дорогую покупку или помогла семье. Когда жертва интересуется, откуда деньги — она говорит, что давно занимается криптотрейдингом и может научить.

Далее жертве присылают ссылку на телеграм-бот якобы для торговли криптой. «Девушка» подсказывает, как «ставить»: например, выбрать TRON, 30 секунд, ставка 2000 ₽, вниз. Всё выглядит так, будто деньги растут прямо на глазах. Но когда человек пытается их вывести, возникают «технические ошибки». Тогда «техподдержка» (тоже мошенники) просит внести ещё немного — чтобы якобы разблокировать вывод.

Есть и другой вариант. «Девушка» говорит, что её доступ к боту заблокировали, и просит «помочь»: зарегистрироваться и по её просьбе выполнить пару действий. Обещает пополнить счёт сама. Жертва, думая, что ничем не рискует, соглашается. В результате снова втягивается в подставную торговлю. Деньги якобы растут, появляется фейковый чек, но на самом деле всё это — постановка. При попытке действовать самостоятельно пользователь просто теряет свои деньги.

Схемы такого рода используют как минимум шесть крупных группировок. Только за первую половину 2024 года они выманили у россиян больше 40 миллионов рублей.

Такие схемы стали сложнее: мошенники используют нейросети, чтобы поддерживать реалистичную переписку, добавляют в общение шутки, флирт и терпеливо подстраиваются под поведение жертвы. Всё это маскирует суть обмана, но не отменяет факта: это обычное мошенничество, и лучше держаться от него подальше.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru