Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

В 2024 году атаки с использованием дипфейков — поддельных аудио- и видеоматериалов, созданных нейросетями — приобрели массовый характер. Совершенствование технологий делает их всё сложнее отличить от реальных записей, что даёт злоумышленникам всё больше возможностей для манипуляций.

Количество инцидентов, связанных сприменением дипфейков в России, уже исчисляется десятками тысяч и продолжает стремительно расти. По прогнозам экспертов, включая аналитиков МТС VisionLabs, в 2025 году число подобных атак может увеличиться в несколько раз.

В начале марта в сети широко распространялись фальшивые видео, якобы с участием губернаторов ряда регионов, включая Сахалинскую область и Приморский край. Однако низкое качество этих роликов выдавало подделку. По всей вероятности, за их созданием стояли пропагандистские структуры Украины.

«Пользователям стоит критически относиться к подобным материалам и не доверять всему, что они видят в интернете. Качество дипфейков постоянно растёт, и в будущем их будет ещё сложнее распознать. Поэтому важно развивать критическое мышление», — подчеркнули в Центре управления регионом Сахалинской области.

Однако дипфейки используются не только в политических целях, но и в мошеннических схемах, направленных на кражу денег. Одна из популярных тактик — имитация голоса родственников потенциальных жертв. Мы собрали наиболее распространённые способы обмана, которые уже активно применяются или могут стать угрозой в ближайшем будущем.

Директор по развитию продуктов ГК «Гарда» Денис Батранков предупреждает:

«Раньше ошибки в текстурах изображения, искажения в голосе, низкое качество видео и аудио были явными признаками дипфейков. Однако сегодня такие артефакты встречаются всё реже. Для их выявления необходимо использовать специализированные программы, такие как Resemblyzer и Deepware, которые с точностью выше 90% анализируют контент и находят признаки искусственной модификации».

Также эксперт напомнил, что телефонные звонки от мошенников часто сопровождаются срочными просьбами или указаниями — например, перевести деньги или передать конфиденциальные данные. Чтобы избежать обмана, он рекомендует:

  • Не принимать решения в спешке. Возьмите паузу в разговоре.
  • Задавать проверочные вопросы. Например, спросите о событии, известном только реальному человеку.
  • Использовать секретные пароли или кодовые слова.
  • Связываться через другие каналы. Например, перезвонить с другого номера или встретиться лично.

Современные технологии развиваются стремительно, но и способы защиты от них не стоят на месте. Главное — оставаться бдительными и не поддаваться на уловки злоумышленников.

У криминального ИИ-сервиса WormGPT украли данные 19 тысяч подписчиков

На популярном онлайн-форуме, посвященном утечкам, появилось сообщение о взломе ИИ-платформы, специально созданной для нужд киберкриминала. К посту прикреплен образец добычи — персональные данные, якобы принадлежащие юзерам WormGPT.

По словам автора атаки, ему суммарно удалось украсть информацию о 19 тыс. подписчиков хакерского ИИ-сервиса, в том числе их имейлы, ID и детали платежей.

Эксперты Cybernews изучили слитый образец февральских записей из базы и обнаружили, что они действительно содержат пользовательские данные и дополнительные сведения:

  • тип подписки;
  • валюта, в которой производилась оплата;
  • суммарная выручка по тому же тарифному плану.

Автор поста об атаке на WormGPT — хорошо известный форумчанин, на счету которого множество легитимных публикаций. Этот факт, по мнению исследователей, придает еще больше веса утверждению о взломе криминального ИИ-сервиса.

Утечка пользовательской базы WormGPT позволяет идентифицировать авторов атак с применением этого ИИ-инструмента. Злоумышленники могут ею воспользоваться, к примеру, для адресного фишинга или шантажа.

RSS: Новости на портале Anti-Malware.ru