Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

В 2024 году атаки с использованием дипфейков — поддельных аудио- и видеоматериалов, созданных нейросетями — приобрели массовый характер. Совершенствование технологий делает их всё сложнее отличить от реальных записей, что даёт злоумышленникам всё больше возможностей для манипуляций.

Количество инцидентов, связанных сприменением дипфейков в России, уже исчисляется десятками тысяч и продолжает стремительно расти. По прогнозам экспертов, включая аналитиков МТС VisionLabs, в 2025 году число подобных атак может увеличиться в несколько раз.

В начале марта в сети широко распространялись фальшивые видео, якобы с участием губернаторов ряда регионов, включая Сахалинскую область и Приморский край. Однако низкое качество этих роликов выдавало подделку. По всей вероятности, за их созданием стояли пропагандистские структуры Украины.

«Пользователям стоит критически относиться к подобным материалам и не доверять всему, что они видят в интернете. Качество дипфейков постоянно растёт, и в будущем их будет ещё сложнее распознать. Поэтому важно развивать критическое мышление», — подчеркнули в Центре управления регионом Сахалинской области.

Однако дипфейки используются не только в политических целях, но и в мошеннических схемах, направленных на кражу денег. Одна из популярных тактик — имитация голоса родственников потенциальных жертв. Мы собрали наиболее распространённые способы обмана, которые уже активно применяются или могут стать угрозой в ближайшем будущем.

Директор по развитию продуктов ГК «Гарда» Денис Батранков предупреждает:

«Раньше ошибки в текстурах изображения, искажения в голосе, низкое качество видео и аудио были явными признаками дипфейков. Однако сегодня такие артефакты встречаются всё реже. Для их выявления необходимо использовать специализированные программы, такие как Resemblyzer и Deepware, которые с точностью выше 90% анализируют контент и находят признаки искусственной модификации».

Также эксперт напомнил, что телефонные звонки от мошенников часто сопровождаются срочными просьбами или указаниями — например, перевести деньги или передать конфиденциальные данные. Чтобы избежать обмана, он рекомендует:

  • Не принимать решения в спешке. Возьмите паузу в разговоре.
  • Задавать проверочные вопросы. Например, спросите о событии, известном только реальному человеку.
  • Использовать секретные пароли или кодовые слова.
  • Связываться через другие каналы. Например, перезвонить с другого номера или встретиться лично.

Современные технологии развиваются стремительно, но и способы защиты от них не стоят на месте. Главное — оставаться бдительными и не поддаваться на уловки злоумышленников.

Ростех: вирусное видео с Сергеем Чемезовым — подделка

В минувшие выходные в Сеть слили провокационное видео с участием гендиректора Ростеха Сергея Чемезова, которое быстро набрало свыше 100 репостов. Госкорпорация заявила, что это фейк, созданный с помощью ИИ.

Злоумышленники взяли за основу запись интервью Чемезова китайскому телеканалу CCTV и перенесли переделанный сценарий в Дубай. В итоге любители «жареного» с готовностью подхватили новый вброс, даже не удосужившись проверить источник.

Авторы фальшивки, по словам Ростеха, не только оклеветали его главу, но также попытались дискредитировать промышленность и финансовые власти России, посеяв недовольство в обществе.

 

«Этот инцидент – еще одно подтверждение того, что России необходимы законы, регулирующие сферу ИИ, — заявили в Ростехе. — Полагаем, что за использование технологий дипфейк во вред человеку, компании или стране должна быть уголовная ответственность, жесткая и соразмерная с ущербом, который хотели нанести злоумышленники».

В настоящее время определение дипфейка в российских законах отсутствует, и это большая проблема. Число атак с использованием ИИ-фальшивок растет, а граждане зачастую даже не имеют представления о новой уловке мошенников.

Власти пока лишь пытаются восполнить этот пробел, подправив УК. Так, Минцифры РФ предложило считать использование дипфейков обстоятельством, отягчающим преступления, а в Госдуме уже больше года обсуждают необходимость криминализации противоправного использования ИИ.

RSS: Новости на портале Anti-Malware.ru