Около 800 тыс. татарстанцев пострадали из-за вредоносной рекламы Google

Около 800 тыс. татарстанцев пострадали из-за вредоносной рекламы Google

Около 800 тыс. татарстанцев пострадали из-за вредоносной рекламы Google

Около 800 000 пользователей в Татарстане, предположительно, могли стать жертвой онлайн-мошенников. Сообщается, что при попытке зайти через Google на один из сайтов по продаже товаров, пользователи перенаправлялись на ресурс злоумышленников.

Как объяснил специалист Group-IB Дмитрий Луканин, киберпреступники используют рекламные сервисы, которые предусмотрены в любой поисковой системе. Такие сервисы помогают сайтам занять верхние позиции в поисковых запросах.

Об этой проблеме мы писали на прошлой неделе. Тогда сообщалось, что 15 марта на протяжении нескольких часов поисковик Google выдавал ссылку на вредоносный сайт по запросу «Amazon»

Сайт, на который перенаправляли пользователей, выглядел как официальная страница поддержки Apple или Windows, в зависимости от типа компьютера жертвы. Анализ кода веб-страницы показал, что, когда пользователь пытался закрыть всплывающее окно, оно разворачивалось на весь экран, имитируя действия программы-вымогателя.

Эксперты на данный момент затрудняются сказать, сколько российских пользователей стали жертвами этого онлайн-мошенничества. А вот приблизительное количество жертв из Татарстана удалось установить, о чем сообщил директор Центра информационной безопасности Университета Иннополис Сергей Петренко.

«В нашей республике от 600 до 800 тыс. пользователей были ни технически, ни организационно не подготовлены к такой атаке. Им сейчас необходимо запустить антивирусы, прикладные межсетевые экраны и соответствующие сканеры, восстановиться и далее быть более бдительными. С Google это происходит уже второй раз. В прошлом году они уже вынуждены были удалить 3 млрд заражённых объявлений и заблокировать 300 тыс. рекламодателей за нарушение политики безопасности. Но от подобных кибератак не застрахован никто», — цитируют СМИ Петренко.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru