Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

Новый Linux-вредонос PyLoose майнит крипту прямо из памяти

PyLoose — новый бесфайловый вредонос, атакующий облачные системы с целью использовать чужие вычислительные ресурсы для майнинга цифровой валюты. Операторы зловреда охотятся за Monero.

PyLoose представляет собой относительно простой Python-скрипт с предварительно скомпилированным зашифрованным base64 майнером XMRig.

Как отметили исследователи из Wiz, изучившие новую киберугрозу, PyLoose очень сложно детектировать. Вредоносная программа действует максимально незаметно именно благодаря принципу своего выполнения — напрямую из памяти.

Стоит также помнить, что бесфайловые зловреды не оставляют следов на системных дисках, так что сигнатурный детект здесь практически бесполезен. Специалисты Wiz впервые зафиксировали атаки PyLoose 22 июня 2023 года, и с тех пор они отметили как минимум 200 случаев заражения.

«Насколько нам известно, это первый задокументированный бесфайловый Python-вредонос, атакующий облачные системы. Мы собрали доказательства около 200 случаев удачных атак, результатом которых стала вредоносная добыча криптовалюты», — гласит отчет Wiz.

Операторы PyLoose используют GET-запрос по HTTPS, который фетчит бесфайловый пейлоад с похожего на Pastebin ресурса — «paste.c-net.org». После этого вредонос загружается непосредственно в память. Майнер XMRig тоже выполняется в памяти с помощью Linux-утилиты «memfd».

Эксперты пока не могут сказать, какая именно кибергруппа стоит за распространением PyLoose.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru