Deceptive Delight: джейлбрейк ИИ-моделей, использующий их благосклонность

Deceptive Delight: джейлбрейк ИИ-моделей, использующий их благосклонность

Deceptive Delight: джейлбрейк ИИ-моделей, использующий их благосклонность

В Palo Alto Networks разработали новый метод обхода ограничений больших языковых моделей (БЯМ, LLM), на которых обычно строятся ИИ-боты. Тестирование на восьми популярных моделях показало результативность почти 65%.

Метод джейлбрейка ИИ-моделей, получивший имя Deceptive Delight, схож с другими атаками, которые полагаются на поэтапную инъекцию вредоносных подсказок-стимулов в ходе взаимодействия с LLM.

Однако в отличие от аналогов он позволяет получить искомый результат всего за два коммуникативных шага.

 

В ходе экспериментов был добавлен третий шаг: LLM попросили развить потенциально опасную тему. В итоге было получено качественное, подробное руководство по изготовлению «коктейля Молотова».

При разработке своего джейлбрейка эксперты сделали ставку на ограниченный объем внимания LLM — ее неспособность сохранять контекстную осведомленность при генерации ответов. Когда вводится сложный или длинный текст, в котором безобидный контент слит с вредоносным, модель может сконцентрироваться на первом и неправильно воспринять либо проигнорировать второй.

Для тестирования были выбраны 40 скользких тем, сгруппированных в шесть категорий: «ненависть», «харасмент», «самоистязание», «сексуального характера», «насилие» и «опасный».

Поскольку предметом исследования являлась проверка на прочность встроенной защиты, у восьми контрольных LLM отключили контент-фильтры, которые обычно отслеживают и блокируют стимулы и ответы с неприемлемым содержимым.

Тесты показали эффективность трехшаговой Deceptive Delight в среднем 64,6%. Самыми успешными оказались темы категории «насилие».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RED Security запустила консалтинг по созданию сценариев выявления атак

Компания RED Security сообщила о запуске нового консалтингового направления — помощи в разработке правил корреляции, то есть сценариев для выявления кибератак. Услуга рассчитана на организации, которые создают собственные центры мониторинга и реагирования на инциденты (SOC), и направлена на повышение их устойчивости к киберугрозам.

Потребность в таких решениях растёт: число атак на российские компании с января по июнь 2025 года превысило 63 тысячи, что на четверть больше, чем годом ранее. Особенно остро стоят вопросы противодействия таргетированным APT-атакам и активности хактивистов.

В рамках консалтинга специалисты помогают организациям разрабатывать правила корреляции с учётом особенностей их инфраструктуры и отрасли, а также актуальных сценариев атак. При необходимости к работе подключаются аналитики SOC, которые имеют опыт отражения сложных инцидентов, включая атаки через подрядчиков.

В набор, который получает заказчик, входит описание сценария атаки, правила нормализации данных, готовое правило для используемой SIEM-системы и рекомендации по реагированию. Эти инструкции можно использовать и при подготовке плейбуков.

Перед внедрением новые правила тестируются: имитируется атака, проверяется корректность срабатывания и оценивается риск ложных срабатываний. После этого проводится обучение дежурных специалистов, и только затем правило запускается в рабочей среде.

По мнению экспертов, такой подход позволяет ускорить запуск корпоративных SOC и снизить риски от кибератак, а также уменьшить нагрузку на штатных сотрудников, которым иначе пришлось бы тратить время на написание и отладку собственных сценариев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru