Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Атака BEAST за минуту заставит большую языковую модель забыть об этике

Исследователи из университета Мэриленда (UMD) разработали новую атаку, позволяющую злоумышленнику обойти запреты для большой языковой модели (БЯМ, LLM). Метод BEAST отличает высокая скорость: благоразумного ассистента можно заставить выдать вредный совет всего за минуту.

Во избежание злоупотреблений разработчики коммерческих ИИ-ботов обычно вводят на сервисах ограничения и учат LLM различать провокации и реагировать на них вежливым отказом. Однако оказалось, что такие преграды можно обойти, придав правильную формулировку запросу-стимулу.

Поскольку обучающие наборы данных неодинаковы, найти нужную фразу для снятия запрета конкретной БЯМ непросто. Для автоматизации подбора и добавления таких ключей к стимулам (например, «меня попросили проверить защищенность сайта») был создан ряд градиентных PoC-атак, но джейлбрейк в этом случае занимает больше часа.

Чтобы ускорить процесс, в UMD создали экспериментальную установку на базе GPU Nvidia RTX A6000 с 48 ГБ памяти и написали особую программу (исходники скоро станут доступными на GitHub). Софт проводит лучевой поиск по обучающему набору AdvBench Harmful Behaviors и скармливает LLM неприемлемые с точки зрения этики стимулы, а затем по алгоритму определяет слова и знаки пунктуации, провоцирующие проблемный вывод.

Использование GPU позволило сократить время генерации пробных стимулов до одной минуты, при этом на одной из контрольных LM-моделей BEAST показал эффективность 89% — против максимум 46% у градиентных аналогов. Ускорение в сравнении с ними составило от 25 до 65%.

 

С помощью BEAST, по словам авторов, можно также усилить галлюцинации LLM. Тестирование показало, что количество неверных ответов при этом увеличивается примерно на 20%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Организаторы фишинговых атак маскируются под психологов

Злоумышленники начали выдавать себя за психологов, создавая фейковые телеграм-каналы экстренной поддержки и личные чаты «специалистов». Такие ресурсы оформляются максимально убедительно: они используют названия, связанные с помощью в кризисных ситуациях, обещают круглосуточные консультации и подчёркивают бесплатный характер услуг, чем вызывают доверие у пользователей, оказавшихся в стрессовом состоянии.

О новой форме активности организаторов фишинговых атак сетевому изданию Lenta.ru рассказал директор по продукту Staffcop направления инфобезопасности «Контур.Эгида» Даниил Бориславский.

Как правило, мошенники заявляют о бесплатности консультаций. Их каналы могут называться «Психолог 24/7», «Анонимно и без записи», «Помощь пострадавшим в кризисе».

Когда человек заходит в такой чат или канал, бот или сам «специалист» начинает обычный разговор. Однако спустя 10–15 минут появляются требования «подтвердить личность». Для этого необходимо внести небольшую оплату, которую обещают вернуть. Пользователя перенаправляют по ссылке, которая оказывается фишинговой, и данные банковской карты попадают к злоумышленникам.

Также распространён сценарий с заполнением анкеты, где требуется указать обширный перечень личных данных. Эти сведения могут использоваться для оформления микрозаймов, шантажа или последующих атак. Кроме того, мошенники перенаправляют жертв на поддельные страницы Telegram под видом «авторизации».

Таким образом они получают контроль над учетной записью мессенджера. По данным BI.ZONE, кража аккаунтов в Telegram является целью трети всех фишинговых атак в России.

«Почему это работает? Рынок телемедицины и психологических консультаций вырос в разы, онлайн-сессией никого не удивишь. В кризисные периоды люди ищут помощь срочно, не проверяя источники. А мошенники используют тренд на заботу о ментальном здоровье — тема в повестке, и это повышает доверие», — подчеркнул Даниил Бориславский.

По его прогнозу, данная схема будет развиваться и расширяться. Например, могут появиться онлайн-каналы с дипфейковыми видео известных психологов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru