Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

Мошенники за рубежом охотно перенимают схему Долиной

На популярном у россиян острове Бали местные мошенники начали активно использовать схему, напоминающую «казус Долиной». Они выступают посредниками при аренде недвижимости, хотя не имеют права сдавать эти объекты. С подобным мошенничеством уже столкнулась жительница Новосибирска.

По ее словам, семья арендовала виллу через агента, который представился родственником владельцев. Договор аренды был заключен сразу на год.

О распространении такой схемы сообщает РИА Новости со ссылкой на пострадавших.

Однако, когда семья приехала на отдых, появился настоящий владелец и заявил, что денег за аренду не получал, а посредник не имеет к нему никакого отношения:

«Он просто повесил на дом замок и сказал, что мы заплатили не тому человеку. По его словам, деньги получил только агент, с которым они больше не сотрудничают. Теперь нам предлагают съехать и самостоятельно требовать деньги обратно у этого агента».

Как отмечает РИА Новости, этот случай не единичный. По аналогичной схеме были обмануты несколько россиян из разных регионов, пытавшихся арендовать жилье на Бали. Встречаются и ситуации, когда один и тот же объект одновременно сдают сразу нескольким туристам.

В России мошенники при аренде недвижимости обычно используют другие схемы. Чаще всего они стремятся получить предоплату, заманивая жертву большой скидкой, а затем исчезают.

Осенью 2025 года появилась схема, при которой злоумышленники выдают себя за собственников объекта и просят перевести деньги за аренду по новым реквизитам. Встречаются также варианты с бронированием несуществующих объектов.

RSS: Новости на портале Anti-Malware.ru