Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

В Донском государственном техническом университете (ДГТУ, Ростов-на-Дону) создали программу для распознавания видеоконтента, сгенерированного с помощью ИИ. Софт весом 100 Кбайт работает на Windows 7 и выше и выявляет дипфейки с приемлемой точностью.

Программа написана на Python 3.11 в среде разработки IDE Microsoft Visual Studio на архитектуре Inception. Для распознавания лиц была применена модель BlazeFace нейронных сетей ResNeXt и XceptionsNet, которые обучили на Google Cloud Platform.

Инструмент прост в использовании: достаточно скачать подозрительное видео и запустить проверку через командную строку. Программа найдет все кадры с лицами и проанализирует каждый на наличие признаков подделки. Так, дипфейк могут выдать натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.

Извлеченные из оригинала характеристики обрабатываются генеративно-состязательной сетью (Generative Adversarial Network, GAN). Для вывода предусмотрены три варианта:

  • наложенный на видео вердикт Fake/No Fake;
  • текстовое сообщение с указанием вероятности подделки (в процентах);
  • отображаемые в командной строке покадровые оценки с указанием степени вероятности фейка.

«Стопроцентный результат не гарантирован: у любой программы бывают неточности, — подчеркивают разработчики. — Это связано и с особенностями мимики человека на видео, и с характеристиками самого видео: иногда такие ролики специально делают с плохим качеством, чтобы труднее было определить подделку».

В настоящее время создатели антифейковой программы завершают оформление свидетельства о госрегистрации продукта, правообладателем которого является ДГТУ. По мнению разработчиков, их инструмент будет востребован в сфере цифровой безопасности, в том числе у создателей бесконтактных систем контроля доступа и разблокировки гаджетов.

«Программа по выявлению фейкового видеоконтента станет одним из модулей будущего программного комплекса по противодействию деструктивной информации, — делится дальнейшими планами научный руководитель проекта, профессор Лариса Черкесова. — Эта система позволит охватить все виды мультимедийного контента в интернете: тексты — как печатные, так и рукописные, графические изображения, включая фото- и видеофайлы, а также аудиофайлы».

Из зарубежных разработок такого плана наиболее интересен, пожалуй, FakeCatcher разработки Intel — серверный детектор, способный распознавать дипфейк-видео в реальном времени с точностью до 96%. От большинства аналогов его отличает подход: он ищет признаки, свойственные человеку, а не отличия, выдающие подлог.

В Security Vision SOAR появились ИИ-ассистент и ML-отчёты

Security Vision выпустила обновление платформы SOAR, добавив в неё несколько заметных функций — локальный ИИ-ассистент, ML-скоринг инцидентов и автоматические ML-отчёты по итогам расследований. Обновление ориентировано на повседневную работу SOC и обработку инцидентов без выхода за контур заказчика.

Security Vision SOAR используется для управления и автоматизации реагирования на инциденты информационной безопасности на всех этапах их жизненного цикла — от выявления и анализа до восстановления и постинцидентной работы.

В основе платформы лежит объектно-ориентированный подход: каждый элемент инцидента — будь то хост, учётная запись, процесс или артефакт — рассматривается как отдельный объект со своей историей, связями и возможными действиями.

Сценарии реагирования в системе динамические: плейбуки автоматически подстраиваются под развитие инцидента, появление новых данных и техник атак. Дополнительно платформа выстраивает цепочку Kill Chain, показывая, как развивалась атака и какие шаги предпринимал злоумышленник.

Система также предлагает рекомендации по дальнейшим действиям, опираясь на контекст инцидента, накопленный опыт SOC и ML-модели, включая оценку вероятности ложного срабатывания.

 

В новом релизе появился локальный ИИ-ассистент в формате чат-бота. Он работает полностью внутри инфраструктуры заказчика и не обращается к внешним сервисам. Ассистент учитывает контекст конкретного инцидента — его стадию, связанные объекты, историю действий и похожие кейсы — и помогает аналитикам разбираться в событиях, расшифровывать логи, понимать техники атак или формировать команды для диагностики. Модель может дообучаться прямо в SOC на результатах обработки инцидентов и аналитических бюллетенях, при этом все данные остаются внутри контура.

Ещё одно нововведение — ML-скоринг критичности инцидентов. Модель автоматически оценивает приоритет события на основе его масштаба и значимости затронутых активов, что упрощает триаж и помогает быстрее понять, какие инциденты требуют внимания в первую очередь.

Также в платформе появился ML-summary — автоматическое резюме по итогам расследования. При закрытии инцидента система формирует краткий отчёт в едином формате: что произошло, какие действия были выполнены, к какому результату они привели и удалось ли атакующему чего-то добиться. Такое резюме сохраняется в карточке инцидента и отчётности, упрощая передачу дел между сменами и снижая потерю контекста.

В целом обновление направлено на то, чтобы упростить и ускорить рутинную работу SOC: быстрее разбираться в инцидентах, снижать нагрузку на аналитиков и сохранять знания внутри команды без необходимости вручную оформлять каждый шаг расследования.

RSS: Новости на портале Anti-Malware.ru