Число фишинговых URL в WhatsApp увеличилось на 13 467%

Число фишинговых URL в WhatsApp увеличилось на 13 467%

Число фишинговых URL в WhatsApp увеличилось на 13 467%

В четвёртом квартале 2019 года число фишинговых ссылок, передаваемых через мессенджер WhatsApp, увеличилось на 13 467%. Это огромный скачок в количестве уникальных вредоносных URL, с помощью которых злоумышленники атакуют пользователей.

О растущей угрозе рассказали исследователи из компании Vade Secure. Соответствующий отчёт экспертов освещает проблемы фишинговых URL.

WhatsApp за четвёртый квартал 2019 года набрал 5020 уникальных вредоносных ссылок. По данным Vade Secure, бренд мессенджера стал пятым по популярности у фишеров.

Исследователи считают, что таким скачком WhatsApp обязан группе Berbagi, которая рекламирует контент порнографического характера.

В целом общий рост числа фишинговых URL, передаваемых через социальные медиаресурсы, произошёл с третьего на четвёртый квартал. В третьем было зафиксировано 13,1% фишинговых атак, в четвёртом — 24,1%.

«Кроме того, злоумышленники взломали хостера 000webhost, на площадке которого размещали фишинговые страницы», — пишут эксперты.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru