Мошенники собирают образцы голоса своих собеседников

Мошенники собирают образцы голоса своих собеседников

Мошенники собирают образцы голоса своих собеседников

Любой разговор с мошенниками опасен. Даже если вы распознали обман, необходимо немедленно прервать разговор. В противном случае злоумышленники могут использовать ваш голос в своих целях.

Такую рекомендацию в беседе с РИА Новости дала заместитель директора Фонда развития общественного мониторинга и защиты прав потребителей финансовых услуг «За права заемщиков» Алла Храпунова.

Разговоры с мошенниками опасны в любом случае. Тем не менее, многие всё же вступают с ними в диалог — и позже даже хвастаются этим.

«Даже если вы уверены в себе, не забывайте: в арсенале мошенников есть приёмы психологического воздействия, которые работают незаметно. В какой-то момент вы сами начинаете волноваться — а вдруг с вашими деньгами действительно что-то произошло», — предупреждает эксперт.

Алла Храпунова также обратила внимание на то, что одной из задач злоумышленников является сбор образцов реальных голосов — с разными интонациями и эмоциональными реакциями. Эти фрагменты могут впоследствии использоваться в мошеннических схемах.

«Не стоит рисковать собой и своими данными — просто сразу кладите трубку», — советует Храпунова.

Злоумышленники активно осваивают технологии дипфейков и дипвойса — то есть создают поддельные голосовые и видеосообщения на основе записей настоящих людей. Особенно часто такие методы применяются при организации фейковых знакомств. Чтобы собрать нужные голосовые образцы, мошенники нередко выдают себя за сотрудников исследовательских центров.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Во Владивостоке распространяют видеодипфейк о повышении платы за проезд

В Сети распространилось видео, в котором мэр Владивостока Константин Шестаков якобы заявляет о повышении стоимости проезда в городском транспорте на 50% из-за дефицита топлива. Ролик быстро начали транслировать местные СМИ, вызвав резонанс среди горожан. Однако в действительности это оказался дипфейк, созданный с использованием технологий нейросетей.

Администрация города оперативно выпустила опровержение, подчеркнув, что видео не является подлинным. Для проверки был задействован комплекс «Зефир», разработанный АНО «Регионы», который подтвердил, что ролик действительно сгенерирован искусственным интеллектом.

Администрация Приморского края также опровергла информацию о росте цен. Губернатор края заявил, что ситуацию контролируют антимонопольные органы и дефицита топлива в регионе не допускают.

Как отметил телеграм-канал «Лапша Медиа», в основе поддельного ролика оказалось видео от 25 августа, где Шестаков предупреждал жителей о надвигающихся ливнях.

По данным «Лапша Медиа», распространение подобных дипфейков не ограничивается Владивостоком. Похожие видео появляются и в других регионах страны. Их распространению способствует непростая ситуация на топливном рынке: сезонный рост спроса и проблемы с логистикой приводят к дефициту и росту цен.

Накануне МВД России сообщило, что атаки с использованием дипфейков приобрели массовый характер. Чаще всего они связаны с попытками обманом получить деньги, представляясь друзьями или знакомыми потенциальной жертвы.

В 2025 году также фиксируется заметный рост числа дипфейков политической направленности. Чаще всего «героями» таких видео становятся губернаторы российских регионов. Эксперты отмечают, что подобные подделки становятся инструментом для манипуляции общественными настроениями.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru