FaceApp снова в тренде, но есть вопросы к степени конфиденциальности

FaceApp снова в тренде, но есть вопросы к степени конфиденциальности

FaceApp снова в тренде, но есть вопросы к степени конфиденциальности

Ваша лента тоже на 70% состоит из пожилых людей? Ничего удивительного, ведь приложение FaceApp опять в тренде. Тем не менее у исследователей в области кибербезопасности возникли вопросы к разработчикам относительно степени конфиденциальности и защищенности данных пользователей.

Первый вопрос касался фоновой загрузки ваших фотографий в облако разработчиков. Гендиректор Guardian App Уилл Стрефеч и исследователь Батист Роберт проанализировали приложение и пришли к выводу, что доказательств фоновой загрузки фотографий пользователя нет.

Второй вопрос возник из-за возможности выбрать фотографию на устройстве, не предоставив сначала приложению соответствующий доступ. Об этом сообщила сотрудница Mashable Карисса Белл.

«Разве для этого не нужен доступ к фото?», — пишет Белл, прикрепив видео, на котором демонстрируется спорный момент.

На самом деле, Apple еще в iOS 11 предоставила приложениям возможность загрузить одно фото без необходимости запрашивать доступ ко всей галерее. Это полезно в случае загрузки аватара.

И последний вопрос относится к загрузке обрабатываемых фото в облако. Здесь проблемы две — во-первых, FaceApp даже не предупреждает пользователя, что его фотографии загружаются в стороннее облако, а во-вторых, непонятно, оставляют ли разработчики фото или удаляют сразу после обработки.

Представители FaceApp пока не ответили на эти вопросы. Эксперты рекомендуют все же использовать приложение с осторожностью. Что уж точно следует сделать перед его использованием — удалить все скриншоты с персональными или платежными данными.

В России разработали способ удалить свой биометрический след

В ИТ-компании «Криптонит» (входит в «ИКС Холдинг») разработали метод, который позволяет выборочно удалять цифровые образы людей из систем распознавания лиц. Если совсем просто, речь идёт о технологии, которая должна помочь реализовать право человека отозвать согласие на обработку своей биометрии — так, чтобы система действительно перестала его узнавать.

Проблема тут в том, что современные системы распознавания лиц устроены не так прямолинейно, как может показаться.

Даже если сведения о человеке формально удалили из базы, его цифровой образ может всё равно остаться внутри уже обученной модели. То есть на бумаге данные вроде бы стерли, а на практике алгоритм всё ещё способен узнать этого человека.

Именно это и делает тему особенно чувствительной. С биометрией всё сложнее, чем с обычными персональными данными: пароль можно поменять, а лицо — нет. Если такие данные утекают, риски уже совсем другого уровня, потому что украденные цифровые слепки можно использовать для создания поддельных образов и обхода биометрической аутентификации.

 

В «Криптоните» утверждают, что их метод решает задачу не маскировкой и не косметическим удалением, а на уровне внутренней логики самой модели. Проще говоря, алгоритм перестаёт использовать сведения о конкретном человеке и больше не может его распознавать, при этом способность узнавать остальных людей сохраняется.

По словам разработчиков, на тестовых наборах данных технология показала заметное снижение эффективности распознавания именно тех лиц, которые нужно «забыть», — до 88%. При этом общая точность системы, как утверждается, осталась на прежнем уровне.

Практическое применение у такого подхода вполне очевидное. В первую очередь это системы видеонаблюдения с распознаванием лиц, СКУД и корпоративная безопасность. Например, технология может пригодиться для удаления биометрических данных уволенных сотрудников, когда компания обязана прекратить их обработку, но не хочет при этом заново переобучать всю систему с нуля.

RSS: Новости на портале Anti-Malware.ru