Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

В Донском государственном техническом университете (ДГТУ, Ростов-на-Дону) создали программу для распознавания видеоконтента, сгенерированного с помощью ИИ. Софт весом 100 Кбайт работает на Windows 7 и выше и выявляет дипфейки с приемлемой точностью.

Программа написана на Python 3.11 в среде разработки IDE Microsoft Visual Studio на архитектуре Inception. Для распознавания лиц была применена модель BlazeFace нейронных сетей ResNeXt и XceptionsNet, которые обучили на Google Cloud Platform.

Инструмент прост в использовании: достаточно скачать подозрительное видео и запустить проверку через командную строку. Программа найдет все кадры с лицами и проанализирует каждый на наличие признаков подделки. Так, дипфейк могут выдать натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.

Извлеченные из оригинала характеристики обрабатываются генеративно-состязательной сетью (Generative Adversarial Network, GAN). Для вывода предусмотрены три варианта:

  • наложенный на видео вердикт Fake/No Fake;
  • текстовое сообщение с указанием вероятности подделки (в процентах);
  • отображаемые в командной строке покадровые оценки с указанием степени вероятности фейка.

«Стопроцентный результат не гарантирован: у любой программы бывают неточности, — подчеркивают разработчики. — Это связано и с особенностями мимики человека на видео, и с характеристиками самого видео: иногда такие ролики специально делают с плохим качеством, чтобы труднее было определить подделку».

В настоящее время создатели антифейковой программы завершают оформление свидетельства о госрегистрации продукта, правообладателем которого является ДГТУ. По мнению разработчиков, их инструмент будет востребован в сфере цифровой безопасности, в том числе у создателей бесконтактных систем контроля доступа и разблокировки гаджетов.

«Программа по выявлению фейкового видеоконтента станет одним из модулей будущего программного комплекса по противодействию деструктивной информации, — делится дальнейшими планами научный руководитель проекта, профессор Лариса Черкесова. — Эта система позволит охватить все виды мультимедийного контента в интернете: тексты — как печатные, так и рукописные, графические изображения, включая фото- и видеофайлы, а также аудиофайлы».

Из зарубежных разработок такого плана наиболее интересен, пожалуй, FakeCatcher разработки Intel — серверный детектор, способный распознавать дипфейк-видео в реальном времени с точностью до 96%. От большинства аналогов его отличает подход: он ищет признаки, свойственные человеку, а не отличия, выдающие подлог.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru