Ботнет DarkCloud прячет вредоносный EXE в изображении Тейлор Свифт

Ботнет DarkCloud прячет вредоносный EXE в изображении Тейлор Свифт

Ботнет DarkCloud прячет вредоносный EXE в изображении Тейлор Свифт

Операторы ботнета DarkCloud, ориентированного на вредоносный криптомайнинг, используют изображение известной американской поп-исполнительницы Тейлор Свифт. В этом изображении злоумышленники прячут злонамеренную составляющую.

Помимо DarkCloud , этот ботнет имеет ещё несколько имён: MyKingz, Smominru и Hexmen. Впервые кампании стоящих за ним преступников обнаружили в конце 2017 года.

Операторы ботнета заражают в основном системы Windows, устанавливая в них различные приложения для майнинга криптовалюты.

В ходе атак DarkCloud пытается внедриться в систему, используя целый спектр различных уязвимостей — от MySQL, MS-SQLfrom и Telnet до SSH и RDP. Такой подход позволил ботнету вырасти очень быстрыми темпами.

Последняя версия DarkCloud, выявленная в этом месяце специалистами компании Sophos, использует стеганографию, помогающую прятать вредоносную составляющую в легитимных файлах.

В недавних атаках операторы прятали злонамеренный EXE-файл в JPEG-изображении Тейлор Свифт.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru