DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Минэк России беспокоит несовершенство регулирования работы с ИИ

Выступая на проходящем в Москве форуме ЦИФРАПРАВА, директор департамента цифрового развития и экономики данных Минэкономразвития РФ Владимир Волошин поднял вопрос о проблемах внедрения и коммерческого использования ИИ.

Внедрение ИИ в повседневные сервисы, по словам спикера, не всегда оправданно и может создать дополнительные сложности для пользователей.

«Звонишь в клинику и минут десять пытаешься доказать, что ты человек и что тебе нужен человек», — цитирует РБК выступление представителя министерства.

В качестве примера Волошин также привел инцидент с беспилотным авто в Санкт-Петербурге, спровоцировавшим легкое ДТП: его разбор потребовал созыва специальной комиссии. К слову, похожий случай недавно произошел в Калифорнии — полицейские не смогли выписать тикет за нарушение ПДД, так как в машине не оказалось водителя.

Проблема, способная затормозить развитие ИИ-технологий в стране, требует корректировок на законодательном уровне, считает докладчик. Из-за несовершенства регулирования сферы ИИ российские бизнесмены почти не используют большие языковые модели, опасаясь возможной кары за нарушение требований ИБ.

Для исправления ситуации представитель Минэка предложил создать экспериментальные правовые режимы, позволяющие бизнес-структурам апробировать методы обезличивания данных и работать с большими моделями в безопасной регуляторной среде.

Минпромторг тоже выступает за совершенствование регулирования сферы ИИ и даже разработал проект универсального законодательного акта. А в Госдуме создали межфракционную рабочую группу для выработки принципов регулирования ИИ, предложений по отраслевому применению таких технологий и по противодействию злоупотреблениям ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru