DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Android 16 появилась кнопка для проверки сохранённых отпечатков пальцев

Google выпустила первую бета-версию Android 16 QPR1, но не всё интересное попало в официальные анонсы. Например, среди скрытых новинок нашлась функция для проверки, какие отпечатки пальцев вы уже добавили на устройство.

В настройках разблокировки по отпечатку появилась новая кнопка: «Проверить зарегистрированные отпечатки».

Нажимаешь — открывается чёрный экран с иконкой отпечатка и надписью «Приложите палец». Приложил — и тебе сразу показывают, какой из сохранённых отпечатков сработал.

 

Зачем это вообще нужно?

Если при добавлении отпечатков им не присваивались имена, со временем легко запутаться — особенно если добавлены и палец правой руки, и левой, и ещё кого-то из близких. А теперь можно просто приложить нужный палец — и система покажет, какой это отпечаток. Дальше можно переименовать, удалить лишний и т. д. — не нужно больше стирать всё и добавлять заново.

Что ещё нового в Android 16 QPR1 Beta 1

  • Экран настроек отпечатков теперь в стиле Material 3 Expressive — стало аккуратнее.
  • На экране блокировки появился Magic Portrait — можно настраивать обои под себя.
  • Обновлён экран недавних приложений — меню стало удобнее.
  • Добавили ползунок для регулировки размера часов на экране блокировки.

Да, это всё пока только бета — но уже выглядит как приятное обновление. Особенно для тех, кто любит порядок даже в биометрии.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru