Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

PyLoose — новый бесфайловый вредонос, атакующий облачные системы с целью использовать чужие вычислительные ресурсы для майнинга цифровой валюты. Операторы зловреда охотятся за Monero.

PyLoose представляет собой относительно простой Python-скрипт с предварительно скомпилированным зашифрованным base64 майнером XMRig.

Как отметили исследователи из Wiz, изучившие новую киберугрозу, PyLoose очень сложно детектировать. Вредоносная программа действует максимально незаметно именно благодаря принципу своего выполнения — напрямую из памяти.

Стоит также помнить, что бесфайловые зловреды не оставляют следов на системных дисках, так что сигнатурный детект здесь практически бесполезен. Специалисты Wiz впервые зафиксировали атаки PyLoose 22 июня 2023 года, и с тех пор они отметили как минимум 200 случаев заражения.

«Насколько нам известно, это первый задокументированный бесфайловый Python-вредонос, атакующий облачные системы. Мы собрали доказательства около 200 случаев удачных атак, результатом которых стала вредоносная добыча криптовалюты», — гласит отчет Wiz.

Операторы PyLoose используют GET-запрос по HTTPS, который фетчит бесфайловый пейлоад с похожего на Pastebin ресурса — «paste.c-net.org». После этого вредонос загружается непосредственно в память. Майнер XMRig тоже выполняется в памяти с помощью Linux-утилиты «memfd».

Эксперты пока не могут сказать, какая именно кибергруппа стоит за распространением PyLoose.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru