Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

В Донском государственном техническом университете (ДГТУ, Ростов-на-Дону) создали программу для распознавания видеоконтента, сгенерированного с помощью ИИ. Софт весом 100 Кбайт работает на Windows 7 и выше и выявляет дипфейки с приемлемой точностью.

Программа написана на Python 3.11 в среде разработки IDE Microsoft Visual Studio на архитектуре Inception. Для распознавания лиц была применена модель BlazeFace нейронных сетей ResNeXt и XceptionsNet, которые обучили на Google Cloud Platform.

Инструмент прост в использовании: достаточно скачать подозрительное видео и запустить проверку через командную строку. Программа найдет все кадры с лицами и проанализирует каждый на наличие признаков подделки. Так, дипфейк могут выдать натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.

Извлеченные из оригинала характеристики обрабатываются генеративно-состязательной сетью (Generative Adversarial Network, GAN). Для вывода предусмотрены три варианта:

  • наложенный на видео вердикт Fake/No Fake;
  • текстовое сообщение с указанием вероятности подделки (в процентах);
  • отображаемые в командной строке покадровые оценки с указанием степени вероятности фейка.

«Стопроцентный результат не гарантирован: у любой программы бывают неточности, — подчеркивают разработчики. — Это связано и с особенностями мимики человека на видео, и с характеристиками самого видео: иногда такие ролики специально делают с плохим качеством, чтобы труднее было определить подделку».

В настоящее время создатели антифейковой программы завершают оформление свидетельства о госрегистрации продукта, правообладателем которого является ДГТУ. По мнению разработчиков, их инструмент будет востребован в сфере цифровой безопасности, в том числе у создателей бесконтактных систем контроля доступа и разблокировки гаджетов.

«Программа по выявлению фейкового видеоконтента станет одним из модулей будущего программного комплекса по противодействию деструктивной информации, — делится дальнейшими планами научный руководитель проекта, профессор Лариса Черкесова. — Эта система позволит охватить все виды мультимедийного контента в интернете: тексты — как печатные, так и рукописные, графические изображения, включая фото- и видеофайлы, а также аудиофайлы».

Из зарубежных разработок такого плана наиболее интересен, пожалуй, FakeCatcher разработки Intel — серверный детектор, способный распознавать дипфейк-видео в реальном времени с точностью до 96%. От большинства аналогов его отличает подход: он ищет признаки, свойственные человеку, а не отличия, выдающие подлог.

Вымогатели Everest заявили о краже 860 Гбайт данных у McDonald’s

В перечне жертв на сайте утечек кибергруппы Everest в даркнете появилось новое имя — McDonald's. Злоумышленники утверждают, что в ходе атаки им удалось выкачать 861 Гбайт данных из сети представительства компании в Индии.

Судя по записи, дедлайн на оплату возврата зашифрованных файлов наступит через два дня. Если выкуп не будет получен в срок, украденная информация (ПДн и внутренние документы), сольют в паблик. 

В подтверждение своих слов вымогатели представили образцы хакерской добычи — персональные данные клиентов и сотрудников McDonald's India, а также скриншоты неких финансовых отчетов. Изучив эти семплы, специалисты Cybernews обнаружили, что информация, скорее всего, достоверна, но в большинстве своем устарела.

 

Тем не менее, ПДн и документация 2017-2019 годов все еще могут быть использованы для фрода и прочих атак с применением методов социальной инженерии. Независимое новостное издание запросило комментарий у McDonald's и ждет отклика.

В прошлом месяце вымогатели Everest заявили о краже 900 Гбайт конфиденциальных данных у Nissan. Официальных разъяснений японского автопроизводителя по этому поводу тоже пока нет.

RSS: Новости на портале Anti-Malware.ru