В Intel создали ИИ-детектор дипфейков реального времени

В Intel создали ИИ-детектор дипфейков реального времени

В Intel создали ИИ-детектор дипфейков реального времени

Компания Intel представила FakeCatcher — новаторскую платформу для распознавания дипфейк-видео в реальном времени. Серверный детектор использует технологии глубокого обучения, выдает результаты за миллисекунды и способен обеспечить точность определения подделок до 96%.

По словам разработчиков, новый подход отличается от большинства аналогов тем, что выявляет признаки, свойственные человеку, а не отличия, выдающие подлог. Оценка производится на основе показаний датчиков, фиксирующих изменения цвета лица, вызванные кровотоком. Используя характерные биосигналы, система создает пространственно-временную карту и с помощью ИИ выдает вердикт.

Концепция распознавания дипфейков по такому принципу была разработана (PDF) несколько лет назад совместно с сотрудниками Университета штата Нью-Йорк в Бингемтоне. Анонсированная реализация использует специализированный софт Intel (OpenVino, OpenCV, Deep Learning Boost и др.) и аппаратуру на базе процессоров Xeon третьего поколения. Набор инструментов устанавливается на сервере и подключается через интерфейс к веб-платформе.

Несомненными достоинствами FakeCatcher являются работа в режиме реального времени и высокая скорость анализа видео — не проходит и секунды, как система возвращает результат. Новинка, по мнению Intel, будет востребована в таких сферах, как модерация контента в соцсетях и проверка подлинности видеоматериалов перед публикацией в СМИ. Платформа также может привлечь внимание НКО, стремящихся вывести полезные технологии в массы.

 

Случаи использования дипфейков пока редки, однако со временем подобный обман может превратиться в серьезную угрозу, поэтому специалисты по ИБ и ученые озаботились созданием новых механизмов контроля идентичности в цифровом пространстве. Работа в этом направлении в основном сосредоточена на распознавании поддельных видео, созданных с помощью ИИ; изредка появляются также разработки, нацеленные на выявление искусных аудиофейков.

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru