Мошенники под видом соцопросов собирают данные для дипфейков

Мошенники под видом соцопросов собирают данные для дипфейков

Мошенники под видом соцопросов собирают данные для дипфейков

Одной из целей массовых телефонных опросов от имени различных исследовательских организаций и центров социологии становится сбор голосовых образцов для создания дипфейков.

Об этом РИА Новости рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.

По её словам, чтобы создать качественную голосовую подделку, злоумышленникам требуется запись продолжительностью не менее 20 секунд, при этом голос должен звучать ровно, без интонаций и посторонних шумов. Поэтому их цель — удержать собеседника на линии как можно дольше. Тематика социологических опросов служит удобным прикрытием для такой активности.

Для придания естественности и обхода защитных механизмов мошенники часто добавляют в запись дополнительные звуковые эффекты — например, имитацию плохой связи или фоновый шум. Как подчеркнула Татьяна Дешкина, эти особенности приходится учитывать при разработке новых версий систем для распознавания дипфейков.

Наибольшую опасность представляют так называемые комбинированные дипфейки — когда синтезированный голос накладывается на поддельное изображение или видео. Такие фальсификации используются для создания фейковых профилей в социальных сетях и мессенджерах, через которые отправляются сообщения якобы от имени реальных людей. Распознать такую подделку крайне сложно. Однако, по словам эксперта, в силу сложности реализации подобные атаки пока не получили массового распространения.

«Финансовые организации и государственные сервисы могут защитить пользователей с помощью многофакторной аутентификации и систем обнаружения дипфейков. В ближайшем будущем мобильные устройства, соцсети и мессенджеры, скорее всего, тоже получат встроенные технологии для распознавания контента, созданного с помощью нейросетей», — подытожила Татьяна Дешкина.

Во второй пакет антимошеннических инициатив, который планируется внести в Госдуму осенью, с большой вероятностью включат поправки в Уголовный кодекс. Они предполагают признание использования технологий искусственного интеллекта, включая дипфейки, отягчающим обстоятельством при совершении преступлений. Такая мера предлагается на фоне стремительного роста преступлений с применением ИИ, особенно заметного в 2025 году.

На активность ботов приходится 41% всех атак

Доля активности ботов в российском вредоносном трафике превысила 41%. При этом их действия всё точнее имитируют легитимное поведение пользователей, из-за чего такие атаки сложнее блокировать и своевременно выявлять. Чем убедительнее боты «маскируются» под людей, тем выше потенциальный ущерб и тем труднее обнаружить атаку на ранней стадии.

Об активизации «умных ботов» сообщил ТАСС со ссылкой на F6 и RED Security.

«Для каждого запроса создается уникальный IP-адрес и цифровой отпечаток устройства. "Интеллектуальный бот" во всем старается подражать человеку: кликает в разные точки страницы или приложения, делает паузы разной длительности между кликами и запросами, открывает в одном браузере несколько страниц одного и того же сервиса. Боты более низкого уровня действуют однотипно», — рассказали в F6.

Глава направления бизнес-аналитики RED Security Савва Ливчин в комментарии ТАСС отметил, что всё более широкое использование продвинутых алгоритмов позволяет ботам эффективнее обходить защитные механизмы. В F6 основным последствием «поумневших» ботов назвали быстрое исчерпание ресурсов приложений.

В RED Security значительный всплеск активности злонамеренных ботов фиксировали ещё в конце 2024 года: доля сгенерированного ими трафика достигла 30%. По данным F6, к концу 2025 года показатель вырос до 41%. В 2026 году тенденция, по оценкам компаний, сохраняется.

По данным StormWall, в 2025 году активность вредоносных ботов в России выросла в 1,7 раза. Это связывают с активностью хактивистов, высокой долей уязвимых устройств и геополитической ситуацией.

RSS: Новости на портале Anti-Malware.ru