DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Большинство россиян не умеет противостоять атакам fake boss

Большинство участников исследования «Контур.Толк» и «Лаборатории Касперского» признались, что не знают, как действовать в случае получения фейкового сообщения от имени руководителя. При этом с такими сообщениями сталкивались 80% опрошенных.

Чаще всего сотрудники просто игнорируют подобные письма. 35% отправляют их в спам, 14% удаляют, и лишь 1% уведомляет службу безопасности компании.

Как показало исследование, в 11% случаев такие инциденты приводили к серьезным последствиям. У 6% респондентов был утерян доступ к учетной записи, а единичные случаи заканчивались взломом ИТ-инфраструктуры или финансовыми потерями, вызванными пересылкой платежных документов или учетных данных.

Также фиксировались ситуации, когда злоумышленники получали доступ к Госключу, что позволяло им совершать юридически значимые операции от имени организации.

Для предотвращения подобных инцидентов 41% опрошенных считают необходимым проводить обучение сотрудников. 26% видят решение в применении защитных средств, 25% — в переходе на корпоративные мессенджеры. Лишь 12% указали на необходимость разработки политик безопасности и контроля за их соблюдением.

Отдельно отмечается, что почти половина компаний оставляет уволенных сотрудников в рабочих чатах.

«Угрозы информационной безопасности бизнеса во многом связаны с человеческим фактором. Сотрудники могут не только не распознать ловушку мошенников или начало кибератаки, но и не знать, как правильно действовать и к кому обращаться, если возникает подозрение», — отметил руководитель отдела по работе с клиентами среднего и малого бизнеса «Лаборатории Касперского» Алексей Киселев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru