Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сетевая гадалка обокрала жительницу Приморья

В Приморском крае мошенница, выдававшая себя за гадалку, выманила у местной жительницы более 600 тысяч рублей под предлогом проведения ритуалов по снятию «смертельной порчи». Женщина поверила в реальность угрозы и согласилась на «магическую помощь».

Как сообщает РИА Новости со ссылкой на краевую прокуратуру, потерпевшая заинтересовалась видеоаккаунтом «ясновидящей» в мессенджере, когда находилась в больнице с ребёнком.

Лжегадалка откликнулась на её обращение, предложила провести расклад на картах и позже снова вышла на связь.

«Она "нагадала" женщине, что на её семью наложена смертельная порча, и потребовала денежные средства за её "снятие". В течение недели потерпевшая переводила деньги лжегадалке за проводимые "ритуалы". Общая сумма ущерба составила почти 600 тысяч рублей», — приводит подробности агентство со ссылкой на прокуратуру Приморского края.

Получив деньги, псевдоясновидящая перестала выходить на связь. Только после этого женщина обратилась в полицию. В отношении злоумышленницы возбуждено уголовное дело по статье о мошенничестве.

Отметим, что весной 2025 года подобная схема уже использовалась: тогда лжегадалка под видом эзотерических ритуалов, якобы помогающих при сдаче экзаменов, выманила у московской школьницы 3,8 миллиона рублей. Девочка платила «мастеру» из родительских сбережений. Когда деньги закончились, мошенница также прекратила контакт.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru