DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В PT Sandbox внедрили ML-модель для поиска скрытых киберугроз

В PT Sandbox появилась новая модель машинного обучения, которая помогает выявлять неизвестные и скрытые вредоносные программы. Песочница анализирует поведение программ по сетевой активности и может заметить угрозы, которые не удаётся поймать обычными методами.

Разработчики отмечают, что один из самых надёжных способов обнаружить зловред — это изучение подозрительных следов в сетевом трафике.

Новая ML-модель как раз обучена отличать «чистые» данные от вредоносных, разбирая пакеты и фиксируя нетипичные признаки поведения.

За последние полгода в песочницу добавили сотни новых правил и сигнатур для анализа трафика, что позволило расширить набор инструментов для поиска программ-вымогателей и атак нулевого дня.

Ещё одно заметное нововведение — проверка QR-кодов. Согласно исследованию, почти половина писем с QR-ссылками содержит зловред или спам. Теперь система может извлекать такие ссылки из писем и вложений и анализировать их на предмет угроз.

Появилась и дополнительная гибкость для специалистов по безопасности: можно писать собственные YARA-правила, настраивать очередь проверки и задавать приоритеты анализа в зависимости от источника или типа файла.

Кроме того, PT Sandbox научилась работать с S3-совместимыми облачными и локальными хранилищами — это позволяет проверять безопасность загружаемых данных вроде кода, изображений или архивов.

И наконец, через веб-интерфейс теперь можно вручную запускать поведенческий анализ отдельных файлов. Это даёт возможность глубже исследовать подозрительные объекты и быстрее реагировать на потенциальные атаки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru