Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Авторы дипфейков используют автоответчики для сбора образцов голоса

Для создания голосового дипфейка злоумышленникам достаточно всего нескольких секунд записи — например, приветствия на автоответчике. На основе таких аудиофрагментов они генерируют сообщения от имени жертвы, используя их для атак на ее окружение.

Как отметил ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров в комментарии для «Известий», приветствия на автоответчике практически не отличаются от голосовых сообщений, оставленных в мессенджерах или записанных во время телефонных разговоров.

По его словам, мошенники активно применяют технологии подделки голоса уже около двух лет, причем для этого существуют многочисленные инструменты, не требующие специальных знаний.

Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов уточняет, что для воспроизведения тембра голоса достаточно всего трех секунд записи. Однако для создания более убедительной синтетической речи, учитывающей характерные особенности голоса и эмоциональную окраску, нужны более длинные образцы. Такие фрагменты нередко встречаются в приветствиях на автоответчиках.

Эксперт по кибербезопасности Angara Security Никита Новиков соглашается, что автоответчик может стать источником ключевых фраз, интонации и манеры речи человека. Затем мошенники используют сгенерированные сообщения в различных схемах обмана. Например, жертве могут поступать просьбы о материальной помощи от имени знакомых, а более сложные сценарии включают мошенничество с фейковыми знакомствами (FakeDate) или подделку сообщений от руководителей (FakeBoss), создавая иллюзию реального общения.

По словам Евгения Егорова, наиболее качественные голосовые дипфейки могут применяться в таргетированных атаках с использованием вишинга. Однако для этого злоумышленникам требуются более сложные и зачастую платные инструменты, позволяющие создавать реалистичный контент.

Максим Бузинов предупреждает, что современные системы детекции не всегда способны распознать качественные голосовые дипфейки. Ситуацию осложняет тот факт, что сами пользователи часто применяют технологии обработки звука, улучшающие качество их речи, что дополнительно затрудняет выявление подделок.

В связи с этим эксперты рекомендуют воздерживаться от записи собственного голоса в качестве приветствия на автоответчике и использовать стандартные варианты, предлагаемые операторами связи. При разговорах с руководителями и официальными лицами стоит уточнять, можно ли выполнить запрашиваемые действия через сайт или мобильное приложение. А при получении просьб о финансовой помощи всегда необходимо связаться с отправителем напрямую.

По прогнозам аналитиков, в 2025 году число атак с использованием дипфейков может значительно возрасти.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru