Дипфейки невозможно распознать без специальных технических средств

Дипфейки невозможно распознать без специальных технических средств

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

В России разработали способ удалить свой биометрический след

В ИТ-компании «Криптонит» (входит в «ИКС Холдинг») разработали метод, который позволяет выборочно удалять цифровые образы людей из систем распознавания лиц. Если совсем просто, речь идёт о технологии, которая должна помочь реализовать право человека отозвать согласие на обработку своей биометрии — так, чтобы система действительно перестала его узнавать.

Проблема тут в том, что современные системы распознавания лиц устроены не так прямолинейно, как может показаться.

Даже если сведения о человеке формально удалили из базы, его цифровой образ может всё равно остаться внутри уже обученной модели. То есть на бумаге данные вроде бы стерли, а на практике алгоритм всё ещё способен узнать этого человека.

Именно это и делает тему особенно чувствительной. С биометрией всё сложнее, чем с обычными персональными данными: пароль можно поменять, а лицо — нет. Если такие данные утекают, риски уже совсем другого уровня, потому что украденные цифровые слепки можно использовать для создания поддельных образов и обхода биометрической аутентификации.

 

В «Криптоните» утверждают, что их метод решает задачу не маскировкой и не косметическим удалением, а на уровне внутренней логики самой модели. Проще говоря, алгоритм перестаёт использовать сведения о конкретном человеке и больше не может его распознавать, при этом способность узнавать остальных людей сохраняется.

По словам разработчиков, на тестовых наборах данных технология показала заметное снижение эффективности распознавания именно тех лиц, которые нужно «забыть», — до 88%. При этом общая точность системы, как утверждается, осталась на прежнем уровне.

Практическое применение у такого подхода вполне очевидное. В первую очередь это системы видеонаблюдения с распознаванием лиц, СКУД и корпоративная безопасность. Например, технология может пригодиться для удаления биометрических данных уволенных сотрудников, когда компания обязана прекратить их обработку, но не хочет при этом заново переобучать всю систему с нуля.

RSS: Новости на портале Anti-Malware.ru