Осторожно: поддельные фонды обманывают жертв трагедий и войн

Осторожно: поддельные фонды обманывают жертв трагедий и войн

Осторожно: поддельные фонды обманывают жертв трагедий и войн

Злоумышленники всё чаще используют благотворительность как предлог для обмана. Распространёнными схемами становятся сборы средств на лечение тяжелобольных, а также помощь жертвам природных и техногенных катастроф или боевых действий.

Как отметил в беседе с «Известиями» ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров, поддельные сайты, маскирующиеся под благотворительные организации и фонды, появляются регулярно. Активность мошенников, как правило, приурочена к конкретным информационным поводам: трагическим событиям и праздникам.

«Например, перед Новым годом мы зафиксировали появление нескольких десятков фейковых сайтов якобы благотворительных фондов и НКО. Чтобы похитить деньги и личные данные неравнодушных граждан, мошенники выдают себя не только за организации, но и за их сотрудников или волонтёров», — рассказал Евгений Егоров.

По словам представителя F6, волна фейковых ресурсов, а также групп в мессенджерах и соцсетях, активизировалась после теракта в «Крокус Сити Холле». Повышенную активность злоумышленников также можно наблюдать при сборах средств для военнослужащих и пострадавших в зоне боевых действий.

Эксперт по социотехническому тестированию компании Angara Security Яков Филевский объяснил интерес мошенников к сфере благотворительности тем, что доказать преступный умысел в таких случаях сложно. Кроме того, помощь, как правило, оказывается анонимно и безвозмездно, что затрудняет отслеживание движения средств.

По данным МВД, в 2025 году получила широкое распространение схема, связанная со сбором средств на лечение тяжелобольных. Как сообщает «РИА Новости» со ссылкой на МВД, злоумышленники разворачивают масштабные кампании по сбору пожертвований, после чего объявляют о смерти пациента. Часть собранных средств возвращается клиникой, поскольку лечение не было завершено, и эти деньги становятся доступными для использования. При этом мошенники исчезают из мессенджеров и соцсетей.

Киберэксперт и инженер-аналитик Лаборатории исследований кибербезопасности компании «Газинформсервис» Ирина Дмитриева прогнозирует, что в подобных схемах вскоре начнут использовать полностью вымышленных «больных» с применением технологий дипфейк. Генеративные инструменты позволяют имитировать медицинские документы и результаты обследований, а боты — создавать видимость активности на платформах для сбора средств.

По словам Якова Филевского, аналогичные схемы могут использоваться и при других инфоповодах — стихийных бедствиях, паводках, лесных пожарах, землетрясениях и боевых действиях. Он отметил, что мошенники уже начали создавать поддельные сайты детских домов, хосписов и приютов, копируя дизайн настоящих организаций. Единственное отличие — подставные банковские реквизиты.

Новой тенденцией, по словам Филевского, стали атаки на жертв уже совершённых финансовых афер. Мошенники находят таких людей на тематических форумах и в чатах, предлагая помощь в возврате украденных средств в обмен на «комиссию» или «взнос».

Подобная активность приводит к снижению доверия к благотворительности в целом. Более того, реальные фонды и некоммерческие организации вынуждены работать в условиях ужесточённого регулирования, что требует дополнительных ресурсов.

«Прежде чем переводить деньги благотворительной организации, обязательно проверьте доменное имя сайта через WHOIS-сервисы. Свежая дата регистрации — один из тревожных признаков. Также убедитесь, что реквизиты совпадают с данными, указанными на официальном сайте», — предупреждает Ирина Дмитриева.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru