Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

Российские ученые создали инструмент выявления дипфейк-видео

В Донском государственном техническом университете (ДГТУ, Ростов-на-Дону) создали программу для распознавания видеоконтента, сгенерированного с помощью ИИ. Софт весом 100 Кбайт работает на Windows 7 и выше и выявляет дипфейки с приемлемой точностью.

Программа написана на Python 3.11 в среде разработки IDE Microsoft Visual Studio на архитектуре Inception. Для распознавания лиц была применена модель BlazeFace нейронных сетей ResNeXt и XceptionsNet, которые обучили на Google Cloud Platform.

Инструмент прост в использовании: достаточно скачать подозрительное видео и запустить проверку через командную строку. Программа найдет все кадры с лицами и проанализирует каждый на наличие признаков подделки. Так, дипфейк могут выдать натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.

Извлеченные из оригинала характеристики обрабатываются генеративно-состязательной сетью (Generative Adversarial Network, GAN). Для вывода предусмотрены три варианта:

  • наложенный на видео вердикт Fake/No Fake;
  • текстовое сообщение с указанием вероятности подделки (в процентах);
  • отображаемые в командной строке покадровые оценки с указанием степени вероятности фейка.

«Стопроцентный результат не гарантирован: у любой программы бывают неточности, — подчеркивают разработчики. — Это связано и с особенностями мимики человека на видео, и с характеристиками самого видео: иногда такие ролики специально делают с плохим качеством, чтобы труднее было определить подделку».

В настоящее время создатели антифейковой программы завершают оформление свидетельства о госрегистрации продукта, правообладателем которого является ДГТУ. По мнению разработчиков, их инструмент будет востребован в сфере цифровой безопасности, в том числе у создателей бесконтактных систем контроля доступа и разблокировки гаджетов.

«Программа по выявлению фейкового видеоконтента станет одним из модулей будущего программного комплекса по противодействию деструктивной информации, — делится дальнейшими планами научный руководитель проекта, профессор Лариса Черкесова. — Эта система позволит охватить все виды мультимедийного контента в интернете: тексты — как печатные, так и рукописные, графические изображения, включая фото- и видеофайлы, а также аудиофайлы».

Из зарубежных разработок такого плана наиболее интересен, пожалуй, FakeCatcher разработки Intel — серверный детектор, способный распознавать дипфейк-видео в реальном времени с точностью до 96%. От большинства аналогов его отличает подход: он ищет признаки, свойственные человеку, а не отличия, выдающие подлог.

6 млн атак в день и ИИ-мошенники: итоги форума «АнтиФрод Россия»

11 декабря 2025 года в Москве прошёл ежегодный форум «АнтиФрод Россия» — одна из ключевых отраслевых площадок, где обсуждают борьбу с мошенничеством в цифровой среде. Мероприятие прошло при участии Совета Федерации, Госдумы, Банка России, Генпрокуратуры, Следственного комитета, МВД и Минцифры и собрало более 600 участников — от банков и финтеха до телекома, ретейла, промышленности и госсектора.

Главной темой форума стал человеческий фактор. Эксперты сошлись во мнении, что при всей развитости технических средств защиты именно социальная инженерия и психологическое давление сегодня остаются главным оружием мошенников.

Замглавы Минцифры Олег Качанов привёл показательные цифры: ежедневно фиксируется около шести миллионов попыток мошеннического воздействия, и примерно тысяча из них оказывается успешной. По его словам, на результат влияют самые разные факторы — от времени суток до эмоционального состояния человека.

 

Отдельный акцент участники дискуссий сделали на росте персонализации атак и использовании искусственного интеллекта для создания поддельного контента. Эти инструменты, по мнению экспертов, требуют принципиально новых подходов к защите как бизнеса, так и обычных пользователей.

Заместитель руководителя Главного управления криминалистики Следственного комитета Иван Стрельцов прямо назвал ИИ одной из главных угроз сегодняшнего дня: преступления всё чаще совершаются с использованием его возможностей.

Одним из самых заметных событий форума стало антипленарное заседание с участием российских знаменитостей. Его модерировала телеведущая Ольга Лисакова, а личные истории гостей наглядно показали, насколько изощрёнными стали мошеннические схемы.

Так, Родион Газманов рассказал, как купил билет в театр за 7 тысяч рублей на сайте, ссылку на который прислала новая знакомая. Билет так и не пришёл, а «служба поддержки» тут же попросила данные карты — сайт оказался поддельным.

 

Надежда Ручка призналась, что назвала код банковской карты «курьеру с цветами». От серьёзных потерь её спасла привычка держать на карте минимум средств — после покупок там оставалось всего 70 рублей.

Актриса Александра Черкасова стала жертвой сложной многоходовой схемы с подменой голоса известного режиссёра и сильным психологическим давлением. Мошенники, угрожая проблемами с законом и оперируя данными о её семье, убедили её перевести 1 млн рублей и оформить кредит ещё на 800 тысяч.

Лариса Вербицкая рассказала, что пошла на контакт с людьми, представившимися сотрудниками банка, услугами которого она давно пользовалась. Заподозрив неладное, она сама связалась с банком, счета были оперативно заблокированы, а ущерб удалось компенсировать.

Помимо дискуссий, на форуме работала выставочная зона, где участники обсуждали реальные кейсы внедрения антифрод-решений и возможные сценарии их развития.

 

В завершение мероприятия организаторы анонсировали открытие предварительной регистрации на форум «АнтиФрод Россия 2026», который запланирован на 10 декабря 2026 года.

RSS: Новости на портале Anti-Malware.ru