ChatGPT убедили создать эксплойт, подсунув инструкцию в 16-ричном формате

ChatGPT убедили создать эксплойт, подсунув инструкцию в 16-ричном формате

ChatGPT убедили создать эксплойт, подсунув инструкцию в 16-ричном формате

Исследователь из Mozilla изобрел новый способ обхода контент-фильтров больших языковых моделей (БЯМ, LLM), применяемых во избежание злоупотреблений. Он разбил ввод на блоки, а вредоносную инструкцию представил в шестнадцатеричной кодировке.

В качестве объекта для атаки Марко Фигероа (Marco Figueroa) избрал GPT-4o, новейший и самый мощный чат-бот производства OpenAI. Его ИИ-модель анализирует пользовательский ввод, выискивая запрещенные слова, признаки злого умысла в инструкциях и т. п.

Подобные ограничения LLM можно обойти, изменив формулировки, однако это потребует креатива. Руководитель проектов bug bounty Mozilla по генеративному ИИ пошел более простым путем.

Используя нестандартный формат — шестнадцатеричный, Фигероа попросил GPT-4o изучить имеющуюся в интернете информацию об уязвимости CVE-2024-41110 (в Docker) и написать для нее эксплойт. Подробные инструкции по расшифровке вводились на естественном языке, а слово «exploit», способное вызвать негативную реакцию, было набрано как «3xploit».

 

Команда «еще раз прочесть все задание» была призвана повлиять на интерпретацию запроса с тем, чтобы получить более обстоятельный ответ. В итоге ИИ-бот сгенерировал эксплойт, схожий с уже опубликованным PoC, и бонусом попытался опробовать его на себе — к удивлению собеседника, который об этом не просил.

Расшифровка ввода в шестнадцатеричном формате помогла рассеять внимание LLM, которые и без того не видят леса за деревьями: прилежно анализируют каждую реплику, забывая, что в сумме они могут вызвать неприемлемый вывод.

Ту же тактику джейлбрейка ИИ Фигероа опробовал на LLM другого производителя, Anthropic. Оказалось, что они лучше защищены, так как используют фильтрацию и ввода, и вывода; заставить их дать вредный совет, по словам исследователя, в 10 раз труднее.

Телефонные мошенники нацелились на учеников автошкол

Использующие телефонную связь мошенники придумали новое прикрытие — стали звонить россиянам от имени администрации автошкол, в которых те проходят обучение. Применяемая при этом схема развода на деньги хорошо известна.

В новом алерте МВД РФ отмечено, что сведения об учениках автошкол получить несложно: достаточно изучить публикации в соцсетях или тематических чатах и группах в мессенджерах.

В ходе разговора с мнимым представителем автошколы у собеседника запрашивают код авторизации для записи на занятия, создания личного кабинета либо подтверждения экзамена. После его передачи потенциальную жертву начинают обрабатывать мнимые сотрудники правоохранительных органов.

На этом этапе мошенники пугают взломом аккаунта или утечкой личных данных и предлагают спасти деньги, переведя их на якобы безопасный счет / отдав курьеру наличными, или принять участие в неких следственных действиях.

Зафиксировано также появление фишинговых сайтов, имитирующих ресурсы популярных автошкол. Они сулят посетителям различные льготы, но требуют предоплаты в виде перевода на карту физлица. Попытки оформить возврат денег на таких площадках безуспешны и лишь влекут кражу банковских реквизитов.

«Не выполняйте указания неизвестных, кем бы они ни представлялись, — советует официальный представитель МВД РФ Ирина Волк. — Блокируйте таких людей и не вступайте с ними в разговоры. Предупредите об этом своих знакомых».

RSS: Новости на портале Anti-Malware.ru