YouTube-видео с пиратским контентом ведут на загрузку трояна Lumma

YouTube-видео с пиратским контентом ведут на загрузку трояна Lumma

YouTube-видео с пиратским контентом ведут на загрузку трояна Lumma

Киберпреступники используют ролики на YouTube, продвигающие взломанный софт, для распространения вредоносной программы Lumma, заточенной под кражу данных жертв.

На новый вектор доставки инфостилера обратили внимание специалисты команды Fortinet FortiGuard Labs. Опубликованный в блоге разбор киберкампании гласит:

«Размещённые на YouTube видео, как правило, содержат информацию о взломанных программах. Пользователям предлагают инструкцию по установке софта, хотя на деле ссылки ведут на загрузку зловреда. Такие URL обычно сокращены сервисами вроде TinyURL и Cuttly».

Злоумышленники пытаются подцепить пользователей, пытающихся найти и установить приложения для видеомонтажа. Например, если вы попробуете поискать на YouTube ссылки на крякнутую версию Vegas Pro, есть шанс нарваться на операторов Lumma.

Потенциальной жертве предлагают пройти по ссылке в описании ролика. Такой URL ведёт на файлообменник MediaFire, где размещён вредоносный инсталлятор.

 

В результате вы скачиваете ZIP-архив, который при распаковке выдаёт Windows-ярлык LNK, замаскированный под установочный файл. На деле он скачивает .NET-загрузчик из репозитория GitHub.

Попав в систему, вредонос проверяет наличие виртуальной машины и инструментов отладки. Если всё «чисто», устанавливается Lumma.

Напомним, в сентябре этот вредонос научился восстанавливать истекшие cookies Google-аккаунтов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru