Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Водяной знак в Windows 11 предупредит о несоответствии ПК требованиям ИИ

Компания Microsoft добавила код в Windows 11 24H2, который сообщит пользователям о том, что их компьютеры не соответствуют аппаратным требованиям для поддержки приложений с искусственным интеллектом.

Предупреждение будет отображаться в виде водяного знака. Изначально единственным требованием являлась инструкция PopCnt в процессоре, но позже кодирование выявило обязательное наличие SSE4.2.

Этот факт не затронет большинство пользователей, так как процессоры, поддерживающие Windows 11, оснащены инструкциями SSE 4.2.

Microsoft добавила эту проверку для приложений, работающих на основе ИИ, таких как Проводник, Copilot и DirectX.

Специалисты Albacore провели исследование бета-версии Windows 11 26200 и обнаружили, что AI Explorer всё же проверяет требования к процессору. Если они не соблюдены, то появляется предупреждение.

Компания нашла способ обойти данную проверку, отключив ID 48486440. Этот метод лишь запрещает AIX выполнять код, но не API.

Скорее всего, компания Microsoft сделала эту дополнительную проверку на случай, если кто-то использует обходные пути, чтобы заставить ОС загрузиться с неподдерживаемым процессором, ведь Windows 11 24H2 не будет загружаться без этих наборов инструкций.

На днях софтверный гигант решил отображать рекламу, ссылающуюся на магазин приложений, в виде «рекомендаций» в меню «Пуск». Microsoft также ограничила возможность настройки пользовательского интерфейса Windows 11 с помощью известных приложений.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru