Регулятор предупредил о возросшей активности мошенников, которые начали использовать нейросети для генерации сообщений с использованием дипфейков, полученных ими разными путями.
«В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет».
«В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва», — так в сообщении, которое размещено в официальном телеграм-канале Банка России описывают типичные схемы злоумышленников.
Мошенники часто используют для рассылки сообщений взломанные учетные записи или их «клоны» с использованием в качестве аватаров фото реальных людей.
Сотрудники регулятора рекомендуют проверять любые просьбы о переводе денег. Например, попытаться связаться с тем человеком, который просит о помощи.
Если возможности позвонить нет, то можно задать в сообщении личный вопрос, ответ на который знает только тот знакомый, который обратился за помощью. Среди характерных признаков дипфейка в Банке России также назвали монотонную речь, неестественную мимики и дефекты звука.
Недавно мы рассуждали, «могут ли дипфейки сделать биометрическую идентификацию бесполезной», а также объясняли, «в чём опасность голосовых дипфейков и атак с их использованием».