Написанный с помощью ИИ вредонос AsyncRAT используется в целевых атаках

Написанный с помощью ИИ вредонос AsyncRAT используется в целевых атаках

Написанный с помощью ИИ вредонос AsyncRAT используется в целевых атаках

Исследователи зафиксировали новую имейл-кампанию, в ходе которой злоумышленники распространяют вредоносную программу, написанную, судя по всему, с помощью ИИ-сервисов. Этот зловред — AsyncRAT.

Ранее киберпреступники использовали генеративные возможности ИИ для составления убедительных писем, а ряд экспертов предупреждал, что эти же сервисы могут помочь и в создании вредоносов.

Именно это и произошло: согласно отчёту HP Wolf Security, злоумышленники с низким уровнем технических навыков всё чаще прибегают к услугам ИИ-сервисов для создания вредоносных программ.

Например, в июне HP зафиксировала фишинговую кампанию, нацеленную на пользователей из Франции. В этих атаках использовался метод HTML smuggling для доставки вредоносного кода.

В результате жертва получает запароленный ZIP-архив, содержащий код VBScript и JavaScript.

 

Экспертам удалось извлечь контент архива с помощью брутфорса и проанализировать код. Последнее было не так сложно сделать, поскольку авторы старательно напичкали его комментариями.

Именно наличие такого количества комментариев и выдало руку ИИ:

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Агентный ИИ несет целый комплекс угроз для корпораций

Агентный искусственный интеллект (ИИ), который работает автономно без участия человека и заранее прописанных алгоритмов, имеет целый ряд уязвимостей. Эти слабые места могут быть использованы злоумышленниками для атак на пользователей подобных систем, в первую очередь корпоративных.

Перечень таких рисков приведён в докладе «Агентный ИИ: маркетинговый ход или технологическая революция?», подготовленном Росконгрессом. Документ оказался в распоряжении РИА Новости.

Согласно докладу, атаки с применением агентного ИИ представляют собой крайне серьёзную угрозу. Потенциальный ущерб от их реализации может превысить последствия традиционных техник кибератак. В числе рисков — нежелательные действия, к совершению которых злоумышленники способны запрограммировать ИИ-агентов.

Отдельное внимание уделено угрозе «отравления памяти» ИИ. Такой сценарий стал возможен благодаря наличию у систем долговременной памяти. Исследования показывают, что использование техники MINJA (Memory INJection Attack) позволяет злоумышленникам добиваться нужных им действий с вероятностью до 70%, при этом не требуя от атакующих высоких привилегий доступа.

Авторы отмечают и другую проблему: современные ИИ-агенты получают доступ к конфиденциальным данным клиентов — финансовой информации, интеллектуальной собственности, юридическим документам и данным о транзакциях в цепочках поставок. В результате существует риск несанкционированного раскрытия этих данных. По статистике, с этим сталкивались почти 25% компаний, а 80% организаций, использующих ИИ-агентов, фиксировали попытки неавторизованного доступа к закрытой информации.

«Критически важными являются ограничение функциональности расширений до минимально необходимого уровня, использование множественных агентов с раздельными ролями вместо универсальных, обеспечение независимости функций безопасности от работы самих ИИ-агентов, а также непрерывный мониторинг с применением ограничений скорости и механизмов автоматического отключения агентов при аномальном поведении», — говорится в докладе.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru