DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

В России началась фишинговая кампания, приуроченная к 8 марта

Злоумышленники запустили массовую рассылку опасных «праздничных» открыток к 8 марта. В них скрыты фишинговые ссылки на ресурсы, распространяющие зловред или собирающие персональные данные. Рассылки идут через мессенджеры и социальные сети.

Такие открытки привлекают музыкальным сопровождением и интерактивными элементами, для доступа к которым предлагается перейти по ссылке.

Однако ссылка ведёт либо на фишинговый сайт, где у пользователей пытаются выманить личные данные, либо инициирует загрузку вредоносного приложения под видом праздничного контента. О кампании РИА Новости сообщили в пресс-службе платформы «Мошеловка».

Как предупреждают в «Мошеловке», к празднику активизировались и другие мошеннические схемы. В частности, злоумышленники действуют от имени курьеров и предлагают «эксклюзивные» букеты с обязательной предоплатой за доставку. После получения денег они исчезают. Чаще всего такие атаки нацелены на мужчин. У женщин же нередко пытаются выманить коды из СМС под предлогом подтверждения сообщения от «тайного поклонника».

Распространение получила и схема с «конкурсом букетов» — разновидность известного сценария с фальшивыми конкурсами и лотереями. В соцсетях создаются поддельные аккаунты якобы известных флористических студий, где объявляется розыгрыш ценных призов. Для участия пользователям предлагают оплатить «комиссию» или «взнос». Такие атаки ориентированы прежде всего на активных пользователей соцсетей.

В «Мошеловке» рекомендуют не переходить по ссылкам в сообщениях от неизвестных отправителей и проверять информацию об акциях на официальных сайтах компаний. Там также напомнили: требование предоплаты со стороны курьера — явный признак мошенничества.

RSS: Новости на портале Anti-Malware.ru