В Intel создали ИИ-детектор дипфейков реального времени

В Intel создали ИИ-детектор дипфейков реального времени

В Intel создали ИИ-детектор дипфейков реального времени

Компания Intel представила FakeCatcher — новаторскую платформу для распознавания дипфейк-видео в реальном времени. Серверный детектор использует технологии глубокого обучения, выдает результаты за миллисекунды и способен обеспечить точность определения подделок до 96%.

По словам разработчиков, новый подход отличается от большинства аналогов тем, что выявляет признаки, свойственные человеку, а не отличия, выдающие подлог. Оценка производится на основе показаний датчиков, фиксирующих изменения цвета лица, вызванные кровотоком. Используя характерные биосигналы, система создает пространственно-временную карту и с помощью ИИ выдает вердикт.

Концепция распознавания дипфейков по такому принципу была разработана (PDF) несколько лет назад совместно с сотрудниками Университета штата Нью-Йорк в Бингемтоне. Анонсированная реализация использует специализированный софт Intel (OpenVino, OpenCV, Deep Learning Boost и др.) и аппаратуру на базе процессоров Xeon третьего поколения. Набор инструментов устанавливается на сервере и подключается через интерфейс к веб-платформе.

Несомненными достоинствами FakeCatcher являются работа в режиме реального времени и высокая скорость анализа видео — не проходит и секунды, как система возвращает результат. Новинка, по мнению Intel, будет востребована в таких сферах, как модерация контента в соцсетях и проверка подлинности видеоматериалов перед публикацией в СМИ. Платформа также может привлечь внимание НКО, стремящихся вывести полезные технологии в массы.

 

Случаи использования дипфейков пока редки, однако со временем подобный обман может превратиться в серьезную угрозу, поэтому специалисты по ИБ и ученые озаботились созданием новых механизмов контроля идентичности в цифровом пространстве. Работа в этом направлении в основном сосредоточена на распознавании поддельных видео, созданных с помощью ИИ; изредка появляются также разработки, нацеленные на выявление искусных аудиофейков.

Google признала баг в Android: кнопки громкости работают «не туда»

Google официально подтвердила проблему в Android, из-за которой кнопки громкости ведут себя некорректно, если на устройстве включена функция доступности «Выделить для озвучивания» (Select to Speak). О баге компания сообщила в официальной заметке после жалоб пользователей.

Select to Speak — это сервис для людей с нарушениями зрения и пользователей, испытывающих трудности при чтении текста. Он позволяет озвучивать текст на экране, а также читать документы и описывать изображения с помощью камеры смартфона.

При активной Select to Speak кнопки громкости начинают работать не так, как ожидают пользователи:

  • вместо регулировки громкости медиа (музыка, видео, игры) они меняют громкость службы доступности;
  • при использовании камеры нажатие кнопок громкости не делает снимок, хотя многие используют этот способ как удобную «физическую» кнопку спуска.

О проблеме сообщил менеджер сообщества Google Аадил Шайх:

«Мы получили сообщения о том, что кнопки громкости работают некорректно на Android-устройствах с включённой функцией Select to Speak. Например, они регулируют громкость специальных возможностей вместо медиа, а в камере не позволяют сделать фото».

Google пока не уточняет, сколько пользователей столкнулись с проблемой, какие версии Android затронуты и когда именно выйдет фикс. Как правило, подобные баги устраняются в рамках плановых обновлений системы.

Пока фикса нет, Google предлагает простой, но не самый удобный обходной путь — отключить Select to Speak:

  1. Откройте «Настройки».
  2. Перейдите в раздел «Специальные возможности».
  3. Выберите «Выделить для озвучивания».
  4. Отключите ярлык или саму функцию.

Разумеется, для пользователей, которым этот сервис действительно необходим, такой вариант может быть проблемным.

RSS: Новости на портале Anti-Malware.ru