ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

ИБ-эксперт обманом заставил ChatGPT создать неуловимого зловреда-стилера

Не написав ни строчки кода, Эрон Малгрю (Aaron Mulgrew) из Forcepoint обошел защиту от злоупотребления ChatGPT и убедил его сгенерировать небольшие фрагменты, а затем собрать их воедино. В итоге экспериментатор получил рабочий образец инфостилера, который при проверке на VirusTotal показал нулевой результат.

Целью досужего исследования являлось доказательство реальности использования ИИ-бота для создания зловредов. Эксперт также удостоверился, что для этого не нужны навыки программиста, а введенные OpenAI ограничения — не помеха.

Сам Малгрю занимается в Forcepoint вопросами киберзащиты клиентских объектов критической инфраструктуры (КИИ). В комментарии для Dark Reading он отметил, что по роду работы ему не нужно писать вредоносные программы или проводить пентесты, и такой опыт у него невелик.

Использование ChatGPT позволило значительно сократить процесс (занял около четырех часов), но из-за наличия контент-фильтров на сервисе пришлось хитрить. В блог-записи эксперта подробно рассказано, как он добивался нужной реакции с помощью подсказок.

На прямолинейную просьбу сгенерировать код, который можно определить как вредоносный, ИИ ожидаемо ответил отказом, заявив, что такое поведение с его стороны было бы неэтичным и аморальным. Тогда Малгрю решил разбить поставленную задачу на этапы, заставив бот генерировать мелкие фрагменты кода, которые в комбинации дали бы искомый результат.

Первая успешная подсказка помогла создать механизм поиска локальных PNG-файлов весом более 5 Мбайт. После этого ChatGPT дополнил его кодом для сокрытия найденных PNG с помощью стеганографии — с этой целью ИИ запросил соответствующую библиотеку на GitHub.

Затем были созданы код поиска документов Word и PDF и более сложный механизм, позволяющий дробить файлы больше 1 Мбайт, встраивать блоки данных в PNG и стегосредствами прятать итог. Финальный фрагмент выполнял вывод информации на Google Диск.

Сборка с помощью подсказки, против ожидания, оказалась самой легкой задачей. Проверка вредоноса на VirusTotal показала результат 5/60. Помудрив с вызовом стегобиблиотеки, Малгрю с помощью чат-бота добился искомого FUD.

При этом он умело подсказывал ИИ, как сократить цифровой след, и ни разу не упомянул цель — обход антивирусов. Вместо обфускации (слово-табу для ChatGPT) исследователь предложил изменить имена переменных и обеспечить защиту интеллектуальной собственности, и собеседник с готовностью накрепко запутал код.

Для доставки зловреда ИИ попросили создать файл SCR, встроить в него полученный экзешник и обеспечить автозапуск на Windows-машинах — якобы для облегчения использования бизнес-приложениями. Чат-бот согласился только написать соответствующие инструкции; итог на VirusTotal — 3/69 (эксперт подозревает, что флаги поставили продукты, считающие все SCR-файлы подозрительными).

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru