Голосовой дипфейк включили через колонку — ИИ-детекторы не сработали

Голосовой дипфейк включили через колонку — ИИ-детекторы не сработали

Голосовой дипфейк включили через колонку — ИИ-детекторы не сработали

Чем лучше звучит синтетическая речь, тем сложнее отличить её от настоящей. Но теперь выяснилось, что даже хорошо обученные антифейковые модели можно легко обмануть с помощью обычного воспроизведения и повторной записи звука.

В начале июня вышло исследование от команды учёных из Германии, Польши, Румынии и компании Resemble AI, которая, кстати, сама делает голосовой ИИ и детекторы дипфейков. Они показали, как так называемые «replay attacks» (атаки повторным воспроизведением) обманывают системы защиты.

Суть простая: берётся синтетический голос, включается через колонку и записывается заново — уже с искажениями, эхом, шумом комнаты. Для человеческого уха разница минимальна, но для модели это уже почти «настоящий» голос. Вуаля — фейк проходит проверку.

А как это связано с безопасностью?

Сегодня вишинг (это когда звонят и притворяются, скажем, ИТ-специалистом компании) — одна из популярных схем атак. А если ИИ может подделать голос босса или техподдержки, параллельно обойдя защиту, становится страшновато.

Даже если в компании стоит антифрод-система, которая слушает звонки и проверяет голос, — достаточно включить фейковый голос через колонку и перезаписать, чтобы обмануть систему.

Что показали эксперименты?

Исследователи протестировали:

  • 6 разных моделей для распознавания дипфейков (включая W2V2-AASIST и Whisper),
  • 4 синтетических движка,
  • 109 разных связок «колонка + микрофон»,
  • на 6 языках.

И собрали датасет ReplayDF — 132,5 часа переозвученного аудио. Условия — максимально приближены к реальности: шум, искажения, акустика комнаты. И результат:

  • У топовой модели ошибка выросла с 4,7% до 18,2%.
  • Даже если обучать модель заново с учётом акустики — ошибка всё равно 11%.

Почему так? Потому что переозвучка убирает ключевые артефакты, по которым дипфейк можно распознать.

А можно ли защититься?

Учёные попробовали добавить «акустический отпечаток комнаты» (RIR — Room Impulse Response) в обучение моделей. Для этого, например, записывают, как в помещении звучит хлопок или короткий щелчок — это даёт информацию об эхо и реверберации.

С этим подходом точность улучшилась на 10-15%, но полностью проблему он не решает. Replay-атаки всё ещё проходят.

Что в итоге?

ИИ-голоса стали настолько реалистичны, что простые методы защиты больше не спасают. Атака «включил-фейк-записал-заново» уже вполне рабочая. Исследователи выложили свой датасет ReplayDF в открытый доступ — некоммерческое использование разрешено.

Так что теперь у разработчиков защиты от дипфейков есть новая головная боль. А у хакеров — ещё один способ обойти системы безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники атакуют медиков и педагогов через фейковые рабочие чаты

Управление по организации борьбы с противоправным использованием инфокоммуникационных технологий МВД России (УБК МВД) предупреждает о массовой волне атак, направленных на сотрудников различных организаций — преимущественно из сфер образования и здравоохранения.

Как сообщается в официальном телеграм-канале «Вестник киберполиции России», целью этих атак является получение кодов авторизации от различных сервисов.

Особое внимание злоумышленников к работникам образовательных и медицинских учреждений в УБК МВД объясняют тем, что персональные данные сотрудников зачастую находятся в открытом доступе. Это позволяет легко подготовить персонализированную атаку.

Сценарий атаки включает несколько этапов. Сначала жертва получает приглашение вступить в групповой чат. В сообщении её обращаются по имени, упоминают место работы, а само приглашение якобы отправлено от имени знакомого коллеги. В чате уже находятся другие «сотрудники», что создаёт эффект достоверности.

Затем в чате появляется аккаунт, представляющийся руководителем. Он быстро даёт распоряжение пройти регистрацию в неком боте — якобы для служебных нужд — и обновить данные «в системе» либо подтвердить доступ к корпоративному ресурсу.

Для завершения регистрации требуется отправить код из СМС или пуш-уведомления. Эту практику поддерживают и «коллеги» в чате, которые делятся своими кодами. Всё это усиливает давление и побуждает жертву также отправить свой код.

УБК МВД напоминает: коды из СМС и пуш-уведомлений нельзя передавать третьим лицам — ни под каким предлогом.

По данным МВД, в 2024 году зарегистрировано более 100 тысяч случаев взлома учётных записей на портале Госуслуг. Как правило, через скомпрометированные аккаунты преступники оформляли микрозаймы от имени владельцев. Уровень раскрываемости подобных преступлений остаётся крайне низким.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru