Новый Python-тулкит FBot атакует облачные сервисы и SaaS-платформы

Новый Python-тулкит FBot атакует облачные сервисы и SaaS-платформы

Новый Python-тулкит FBot атакует облачные сервисы и SaaS-платформы

Новый инструмент для взлома, написанный на Python, используется в атаках на веб-серверы, системы управления контентом, облачные сервисы и SaaS-платформы. Тулкит получил имя FBot.

Новую игрушку хакеров описал подробно в отчёте Алекс Деламотт, один из специалистов компании SentinelOne:

«Ключевой функциональностью FBot является возможность собирать учётные данные для последующего проведения спамерских атак. Помимо этого, инструмент позволяет проводить атаки против аккаунтов PayPal и SaaS».

Таким образом, FBot присоединился к другим похожим тулкитам: AlienFox (тоже ворует учетки AWS, Google, Microsoft 365 для рассылки спама), GreenBot, Legion и Predator.

В SentinelOne отметили, что FBot не тесно связан с упомянутыми семействами, поскольку в его коде нет отсылок к AndroxGh0st. Задача новой тулзы — взломать облачные сервисы и утащить учётные данные. После этого все логины и пароли продаются другим киберпреступникам.

Дополнительно FBot способен генерировать ключи API для AWS и Sendgrid, случайные IP-адреса, а также запускать сканеры IP и даже проверять актуальность PayPal-аккаунтов с помощью адресов электронной почты.

«Скрипт создаёт API-запрос к PayPal с помощью сайта hxxps://www.robertkalinkin.com/index.php, который представляет собой ретейл-ресурс литовского модельера», — объясняют исследователи.

«Интересно, что FBot выбрал именно этот сайт для аутентификации API-запросов к Paypal. Кстати, некоторые образцы Legion делали то же самое».

У новинки есть и специальные функции, заточенные под AWS: вредонос может проверять конфигурацию AWS Simple Email Service (SES). Интересно, что FBot также способен извлекать креды из файлов окружения Laravel.

Киберпреступники могут использовать Copilot и Grok как сервер управления

ИИ-ассистенты с доступом к вебу можно использовать как «посредников» для управления заражёнными компьютерами. К такому выводу пришли исследователи Check Point, показав, как Grok и Microsoft Copilot могут быть задействованы в схеме командного сервера (C2) атакующих.

Идея простая, но изящная. Вместо того чтобы вредоносная программа напрямую связывалась с сервером злоумышленника (что часто отслеживается и блокируется), она обращается к веб-интерфейсу ИИ.

А уже тот по инструкции запрашивает нужный URL и возвращает ответ в своём тексте. В итоге ИИ становится своеобразным «ретранслятором» между атакующим и заражённой машиной.

В демонстрационном сценарии Check Point использовала компонент WebView2 в Windows 11, он позволяет встроить веб-страницу прямо в приложение. Исследователи создали программу на C++, которая открывает WebView с Grok или Copilot и передаёт ассистенту инструкции. Даже если WebView2 отсутствует в системе, злоумышленник может доставить его вместе с вредоносной программой.

 

Дальше схема выглядит так: атакующий размещает на своём сервере зашифрованные данные или команды. Вредонос обращается к ИИ и просит, например, «получить и суммировать содержимое страницы». Ассистент возвращает ответ, а зловред извлекает из текста нужные инструкции. В обратную сторону можно передавать и украденные данные — также в зашифрованном виде.

 

Так создаётся двусторонний канал связи через легитимный ИИ-сервис. Поскольку обращения идут к доверенному ресурсу, системы фильтрации трафика могут не заподозрить ничего необычного.

Примечательно, что в PoC не требовались ни API-ключи, ни учётные записи. Это усложняет блокировку: нельзя просто «отозвать ключ» или заблокировать аккаунт, как в случае злоупотребления облачными сервисами.

Исследователи отмечают, что у платформ есть механизмы защиты от явно вредоносных запросов. Однако их можно обойти, если передавать данные в виде зашифрованных фрагментов с высокой энтропией — тогда для ИИ это просто «бессмысленный текст», который он честно перескажет или обработает.

В Check Point подчёркивают, что использование ИИ как C2-прокси — лишь один из возможных сценариев злоупотребления. Теоретически модели могут применяться и для анализа окружения жертвы: стоит ли продолжать атаку, какие действия менее заметны и т. д.

RSS: Новости на портале Anti-Malware.ru