ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

Не написав ни строчки кода, Эрон Малгрю (Aaron Mulgrew) из Forcepoint обошел защиту от злоупотребления ChatGPT и убедил его сгенерировать небольшие фрагменты, а затем собрать их воедино. В итоге экспериментатор получил рабочий образец инфостилера, который при проверке на VirusTotal показал нулевой результат.

Целью досужего исследования являлось доказательство реальности использования ИИ-бота для создания зловредов. Эксперт также удостоверился, что для этого не нужны навыки программиста, а введенные OpenAI ограничения — не помеха.

Сам Малгрю занимается в Forcepoint вопросами киберзащиты клиентских объектов критической инфраструктуры (КИИ). В комментарии для Dark Reading он отметил, что по роду работы ему не нужно писать вредоносные программы или проводить пентесты, и такой опыт у него невелик.

Использование ChatGPT позволило значительно сократить процесс (занял около четырех часов), но из-за наличия контент-фильтров на сервисе пришлось хитрить. В блог-записи эксперта подробно рассказано, как он добивался нужной реакции с помощью подсказок.

На прямолинейную просьбу сгенерировать код, который можно определить как вредоносный, ИИ ожидаемо ответил отказом, заявив, что такое поведение с его стороны было бы неэтичным и аморальным. Тогда Малгрю решил разбить поставленную задачу на этапы, заставив бот генерировать мелкие фрагменты кода, которые в комбинации дали бы искомый результат.

Первая успешная подсказка помогла создать механизм поиска локальных PNG-файлов весом более 5 Мбайт. После этого ChatGPT дополнил его кодом для сокрытия найденных PNG с помощью стеганографии — с этой целью ИИ запросил соответствующую библиотеку на GitHub.

Затем были созданы код поиска документов Word и PDF и более сложный механизм, позволяющий дробить файлы больше 1 Мбайт, встраивать блоки данных в PNG и стегосредствами прятать итог. Финальный фрагмент выполнял вывод информации на Google Диск.

Сборка с помощью подсказки, против ожидания, оказалась самой легкой задачей. Проверка вредоноса на VirusTotal показала результат 5/60. Помудрив с вызовом стегобиблиотеки, Малгрю с помощью чат-бота добился искомого FUD.

При этом он умело подсказывал ИИ, как сократить цифровой след, и ни разу не упомянул цель — обход антивирусов. Вместо обфускации (слово-табу для ChatGPT) исследователь предложил изменить имена переменных и обеспечить защиту интеллектуальной собственности, и собеседник с готовностью накрепко запутал код.

Для доставки зловреда ИИ попросили создать файл SCR, встроить в него полученный экзешник и обеспечить автозапуск на Windows-машинах — якобы для облегчения использования бизнес-приложениями. Чат-бот согласился только написать соответствующие инструкции; итог на VirusTotal — 3/69 (эксперт подозревает, что флаги поставили продукты, считающие все SCR-файлы подозрительными).

Ростех: вирусное видео с Сергеем Чемезовым — подделка

В минувшие выходные в Сеть слили провокационное видео с участием гендиректора Ростеха Сергея Чемезова, которое быстро набрало свыше 100 репостов. Госкорпорация заявила, что это фейк, созданный с помощью ИИ.

Злоумышленники взяли за основу запись интервью Чемезова китайскому телеканалу CCTV и перенесли переделанный сценарий в Дубай. В итоге любители «жареного» с готовностью подхватили новый вброс, даже не удосужившись проверить источник.

Авторы фальшивки, по словам Ростеха, не только оклеветали его главу, но также попытались дискредитировать промышленность и финансовые власти России, посеяв недовольство в обществе.

 

«Этот инцидент – еще одно подтверждение того, что России необходимы законы, регулирующие сферу ИИ, — заявили в Ростехе. — Полагаем, что за использование технологий дипфейк во вред человеку, компании или стране должна быть уголовная ответственность, жесткая и соразмерная с ущербом, который хотели нанести злоумышленники».

В настоящее время определение дипфейка в российских законах отсутствует, и это большая проблема. Число атак с использованием ИИ-фальшивок растет, а граждане зачастую даже не имеют представления о новой уловке мошенников.

Власти пока лишь пытаются восполнить этот пробел, подправив УК. Так, Минцифры РФ предложило считать использование дипфейков обстоятельством, отягчающим преступления, а в Госдуме уже больше года обсуждают необходимость криминализации противоправного использования ИИ.

RSS: Новости на портале Anti-Malware.ru