Вредоносные пакеты BlazeStealer в PyPI маскируются под обфускаторы

Вредоносные пакеты BlazeStealer в PyPI маскируются под обфускаторы

Вредоносные пакеты BlazeStealer в PyPI маскируются под обфускаторы

В репозиторий Python Package Index (PyPI) проник новый набор вредоносных Python-пакетов, авторы которых хотят стащить конфиденциальную информацию с устройств разработчиков софта. Зловредов объединили под общим именем BlazeStealer.

По словам специалистов Checkmarx, обнаруживших киберугрозу, пакеты замаскированы под безопасные с виду инструменты для обфускации.

«BlazeStealer способны загружать дополнительный вредоносный скрипт из стороннего источника. Этот скрипт активирует Discord-бот, открывающий атакующему полный доступ к компьютеру жертвы», — пишут исследователи в отчете.

Судя по всему, эта кампания стартовала в январе 2023 года, в ней участвуют в общей сложности восемь пакетов: Pyobftoexe, Pyobfusfile, Pyobfexecute, Pyobfpremium, Pyobflite, Pyobfadvance, Pyobfuse и pyobfgood. Последний датируется уже октябрем.

В каждом из таких пакетов есть файлы setup.py и init.py, задача которых — вытащить скрипт Python, размещенный на transfer[.]sh. После установки этот скрипт сразу выполняется.

Как уже отмечалось выше, BlazeStealer задействуют бот Discord и позволяют авторам собирать целый спектр важных данных (включая пароли из браузеров), снимать скриншоты, выполнять произвольные команды, шифровать файлы и даже отключать встроенный в Windows антивирус Microsoft Defender.

 

Более того, вредонос может серьезно затруднить или сделать невозможной работу с компьютером за счет неадекватного потребления ресурсов центрального процессора, а также поместить Batch-скрипт в директорию автозапуска для выключения устройства и даже вызвать синий экран смерти (BSoD).

В общей сложности пакеты загрузили 2438 раз, наибольшее число скачиваний отмечено из Китая, России, Ирландии, Гонконга, Хорватии, Франции и Испании.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники под видом соцопросов собирают данные для дипфейков

Одной из целей массовых телефонных опросов от имени различных исследовательских организаций и центров социологии становится сбор голосовых образцов для создания дипфейков.

Об этом РИА Новости рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.

По её словам, чтобы создать качественную голосовую подделку, злоумышленникам требуется запись продолжительностью не менее 20 секунд, при этом голос должен звучать ровно, без интонаций и посторонних шумов. Поэтому их цель — удержать собеседника на линии как можно дольше. Тематика социологических опросов служит удобным прикрытием для такой активности.

Для придания естественности и обхода защитных механизмов мошенники часто добавляют в запись дополнительные звуковые эффекты — например, имитацию плохой связи или фоновый шум. Как подчеркнула Татьяна Дешкина, эти особенности приходится учитывать при разработке новых версий систем для распознавания дипфейков.

Наибольшую опасность представляют так называемые комбинированные дипфейки — когда синтезированный голос накладывается на поддельное изображение или видео. Такие фальсификации используются для создания фейковых профилей в социальных сетях и мессенджерах, через которые отправляются сообщения якобы от имени реальных людей. Распознать такую подделку крайне сложно. Однако, по словам эксперта, в силу сложности реализации подобные атаки пока не получили массового распространения.

«Финансовые организации и государственные сервисы могут защитить пользователей с помощью многофакторной аутентификации и систем обнаружения дипфейков. В ближайшем будущем мобильные устройства, соцсети и мессенджеры, скорее всего, тоже получат встроенные технологии для распознавания контента, созданного с помощью нейросетей», — подытожила Татьяна Дешкина.

Во второй пакет антимошеннических инициатив, который планируется внести в Госдуму осенью, с большой вероятностью включат поправки в Уголовный кодекс. Они предполагают признание использования технологий искусственного интеллекта, включая дипфейки, отягчающим обстоятельством при совершении преступлений. Такая мера предлагается на фоне стремительного роста преступлений с применением ИИ, особенно заметного в 2025 году.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru