Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники массово рассылают ложные сообщения о входе на Госуслуги

Мошенники продолжают массово рассылать поддельные уведомления о входе на Портал Госуслуг, указывая номер телефона для связи. Такая схема используется в основном для сбора персональных данных и захвата учетных записей.

На схему с обратными звонками обратила внимание прокуратура Москвы. Злоумышленники применяли её в классическом сценарии перевода денежных средств на подконтрольные счета.

Директор продукта «Защитник» МТС Андрей Бийчук рассказал «РИА Новости» о модификации этой схемы. Сначала потенциальной жертве поступает сообщение через SMS или мессенджер о подозрительном входе в личный кабинет Госуслуг. Текст максимально имитирует официальные уведомления.

«Обратите внимание, авторизация с постороннего устройства. Вход в кабинет "Госуслуг" совершен с нового устройства. Если устройство не ваше, вход выполняли не вы или возникли вопросы, обращайтесь по номеру за дополнительной информацией», — так выглядит сообщение, рассылаемое мошенниками.

Как выяснили в «РИА Новости», такие рассылки начались ещё весной 2025 года. Единственной заметной неточностью было искажённое название портала — Gos Uslugi вместо Gosuslugi.

В сообщениях указывается номер телефона, по которому якобы можно получить помощь. На звонок отвечает «специалист техподдержки», который требует пройти «проверку личности». В противном случае, по его словам, доступ к аккаунту будет заблокирован. Для проверки злоумышленники просят назвать паспортные данные, СНИЛС и код из СМС.

Минцифры напоминает: официальные уведомления о входе в личный кабинет Госуслуг поступают только на электронную почту с адреса no-reply@gosuslugi.ru. Любые сообщения, отправленные через СМС или мессенджеры, являются мошенническими.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru