Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

По итогам 2024 года количество атак с использованием технологий дипфейков, преимущественно голосовых, достигло десятков тысяч. Эксперты прогнозируют резкий рост подобных инцидентов в 2025 году, вплоть до увеличения их числа в несколько раз.

Согласно данным МТС VisionLabs, на которые ссылаются «Известия», реальное число таких атак значительно превышает официальные показатели.

«Аудио- и видеодипфейки в 2024 году стали массовым явлением, поскольку преступники усовершенствовали технологии их создания», — отметил в комментарии для «Коммерсанта» Максим Бузинов, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар».

Как правило, злоумышленники подделывают голос руководителя компании или близкого родственника потенциальной жертвы. По оценкам экспертов, наиболее уязвимыми категориями для таких атак остаются подростки, женщины и пожилые люди.

В 2025 году количество таких случаев может значительно возрасти благодаря появлению систем, способных подделывать голос в режиме реального времени. Первые рабочие версии таких приложений начали появляться уже во второй половине 2024 года.

«Проблема в том, что даже сложные алгоритмы дипфейков теперь можно легко найти в открытом доступе», — предупреждает Татьяна Дешкина, представитель VisionLabs. «Кроме того, порог входа для их создания значительно снизился — появились приложения, позволяющие генерировать дипфейки даже людям без минимального опыта в программировании».

При этом программное обеспечение для изменения голоса доступно практически без ограничений. Уже сегодня можно сгенерировать видеозвонок в режиме реального времени. Хотя качество такого видео пока низкое, это легко списывается на плохое соединение или низкое разрешение камеры.

Тем не менее такие звонки чрезвычайно опасны, так как их можно использовать для вымогательства, оформления кредитов от имени жертвы, получения конфиденциальной информации или шантажа.

Дмитрий Соколов, руководитель службы информационной безопасности компании «МойОфис» и эксперт АРПП «Отечественный софт», подчеркивает, что такие инструменты позволяют имитировать не только голос, но и интонации, что делает дипфейк практически неотличимым от оригинала.

Помимо этого, злоумышленники активно используют методы психологического давления, повышая уровень стресса у жертвы, а также играют на неосведомленности широкой аудитории о технологиях дипфейков.

Эксперты сходятся во мнении, что основная рекомендация для пользователей — перезванивать тому, от чьего имени якобы поступил звонок. Тем временем разработчики активно работают над созданием решений для выявления дипфейков, в том числе в режиме реального времени. Такие продукты уже представили компании MTS AI, Сбер, онлайн-кинотеатр Wink и ГК «Солар».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru