Инвесторы новой криптовалюты NOT становятся жертвами мошенников

Инвесторы новой криптовалюты NOT становятся жертвами мошенников

Инвесторы новой криптовалюты NOT становятся жертвами мошенников

Мошенники стали чаще предлагать пользователям Telegram купить или продать новую криптовалюту NOT (первый токен на блокчейне TON), которая вышла на биржу 16 мая.

Специалисты по информационной безопасности сообщили, что злоумышленники предлагают жертвам «выгодно» приобрести новый альткоин. Пользователи могут лишиться денег, если доверятся этим дилерам.

Злоумышленники активизировались после того как Telegram объявил о том, что обладатели цифрового актива TON могут получить мем-монету бесплатно. Мошенники начали продавать NOT со «скидкой». Жертвы переводили деньги и оставались ни с чем.

Эксперты отмечают, что за последние два месяца было зарегистрировано около 67 доменов, в названии которых используется слово Notcoin. Дмитрий Кирюшкин, руководитель BI.ZONE Brand Protection, рассказал, что они могут быть потенциально опасны и эксплуатироваться для фишинга.

Сайты рекламируются в различных каналах мессенджера и предлагают либо купить валюту по низкой цене, чтобы заработать на ней после выхода на биржу, либо продать.

Когда пользователь переходит по фишинговой ссылке, злоумышленник собирает различную информацию о нём: откуда и через какие устройства подключается, что вводит в формах на сайте и другое. В будущем мошенники могут использовать эти данные в своих атаках на криптодержателя.

Люди любят быстро зарабатывать и выгодно инвестировать деньги, поэтому злоумышленники продолжают действовать и пользуются любым инфоповодом для проведения своих махинаций. Листинг NOT не стал исключением.

Ольга Малюгина, директор краудлендинговой платформы Nibble Invest, отметила в беседе с «Известиями», что только 15% граждан России готовы инвестировать в криптовалюту. Это на 10% меньше по сравнению с прошлым годом. Россияне перестают доверять данному инструменту, так как не хотят рисковать деньгами.

Однако Telegram зарекомендовал себя среди пользователей, поэтому потенциальные инвесторы готовы рискнуть и вложиться в новую монету. Эксперты предупреждают, что нужно реально оценивать предложения, не связываться с непроверенными источниками и не оставлять свои личные данные на сомнительных сайтах.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru