Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

Атак с использованием дипфейков стало больше, а выявлять их все сложнее

В 2024 году атаки с использованием дипфейков — поддельных аудио- и видеоматериалов, созданных нейросетями — приобрели массовый характер. Совершенствование технологий делает их всё сложнее отличить от реальных записей, что даёт злоумышленникам всё больше возможностей для манипуляций.

Количество инцидентов, связанных сприменением дипфейков в России, уже исчисляется десятками тысяч и продолжает стремительно расти. По прогнозам экспертов, включая аналитиков МТС VisionLabs, в 2025 году число подобных атак может увеличиться в несколько раз.

В начале марта в сети широко распространялись фальшивые видео, якобы с участием губернаторов ряда регионов, включая Сахалинскую область и Приморский край. Однако низкое качество этих роликов выдавало подделку. По всей вероятности, за их созданием стояли пропагандистские структуры Украины.

«Пользователям стоит критически относиться к подобным материалам и не доверять всему, что они видят в интернете. Качество дипфейков постоянно растёт, и в будущем их будет ещё сложнее распознать. Поэтому важно развивать критическое мышление», — подчеркнули в Центре управления регионом Сахалинской области.

Однако дипфейки используются не только в политических целях, но и в мошеннических схемах, направленных на кражу денег. Одна из популярных тактик — имитация голоса родственников потенциальных жертв. Мы собрали наиболее распространённые способы обмана, которые уже активно применяются или могут стать угрозой в ближайшем будущем.

Директор по развитию продуктов ГК «Гарда» Денис Батранков предупреждает:

«Раньше ошибки в текстурах изображения, искажения в голосе, низкое качество видео и аудио были явными признаками дипфейков. Однако сегодня такие артефакты встречаются всё реже. Для их выявления необходимо использовать специализированные программы, такие как Resemblyzer и Deepware, которые с точностью выше 90% анализируют контент и находят признаки искусственной модификации».

Также эксперт напомнил, что телефонные звонки от мошенников часто сопровождаются срочными просьбами или указаниями — например, перевести деньги или передать конфиденциальные данные. Чтобы избежать обмана, он рекомендует:

  • Не принимать решения в спешке. Возьмите паузу в разговоре.
  • Задавать проверочные вопросы. Например, спросите о событии, известном только реальному человеку.
  • Использовать секретные пароли или кодовые слова.
  • Связываться через другие каналы. Например, перезвонить с другого номера или встретиться лично.

Современные технологии развиваются стремительно, но и способы защиты от них не стоят на месте. Главное — оставаться бдительными и не поддаваться на уловки злоумышленников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Продажи плюшевых ИИ-мишек приостановлены из-за их сексуальных фантазий

Базирующаяся в Сингапуре компания FoloToy сняла с продажи медвежат Kumma и другие игрушки на основе ИИ после того, как исследователи выявили их склонность к вредным советам и обсуждению сексуальных пристрастий.

Вендор интеллектуальных плюшевых мишек заявил, что проводит аудит безопасности ассортимента, использующего ИИ-технологии.

Набивной плюшевый мишка с интегрированным чат-ботом на основе GPT-4o производства OpenAI продавался по цене $99 и позиционировался как дружелюбный и знающий собеседник, которого оценят и любознательные дети, и их родители.

Как выяснилось, вооруженная ИИ приятная игрушка использует его без должных ограничений. Тестирование показало, что Kumma с готовностью выдают потенциально опасный контент — сведения о нетрадиционном сексе с наглядной графикой, а также советы о том, как зажигать спички и где отыскать в доме ножи.

Получив соответствующее уведомление, OpenAI заблокировала разработчика детских игрушек за нарушение ее политик. Вместе с тем исследователи с сожалением отмечают, что это не единичный случай: производство ИИ-игрушек пока никак не регулируется, а поток их продаж растет.

Удаление одного потенциально опасного продукта с прилавков, по мнению экспертов, не решит проблемы, пока не будет введен систематический контроль.

Стоит заметить, что детские игрушки на основе ИИ, склонного к галлюцинациям, способны нанести еще больший вред, чем некогда модные интерактивные куклы, мягкие зверики и роботы, подключенные к интернету и потому уязвимые к взлому и перехвату персональных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru