WhatsApp для Android тестирует функцию отключения камеры перед видеозвонком

WhatsApp для Android тестирует функцию отключения камеры перед видеозвонком

WhatsApp для Android тестирует функцию отключения камеры перед видеозвонком

Разработчики WhatsApp (принадлежит корпорации Meta, признанной экстремистской и запрещенной в России) готовятся исправить ключевую проблему конфиденциальности видеозвонков: в новой версии мессенджера появится возможность отключить камеру перед принятием вызова.

Сейчас при входящем видеозвонке WhatsApp автоматически включает фронтальную камеру, а отключить её можно только после ответа на звонок.

Однако в бета-версии приложения для Android (2.25.7.3) обнаружена новая функциональность — «Принять без видео», которая позволит начать разговор в аудиоформате.

При поступлении видеозвонка у пользователя появится опция «Отключить видео», нажав на которую можно принять звонок в голосовом режиме. Если позже возникнет желание включить камеру, это можно сделать в любой момент с помощью кнопки «Включить видео».

 

Источник: Android Authority

 

Эта функция придётся особенно кстати, учитывая растущее число мошеннических схем с видеозвонками. В частности, в Индии зафиксированы случаи сексторшн-афер, где злоумышленники снимают скриншоты лица жертвы и требуют выкуп.

Пока неясно, когда нововведение появится в стабильной версии WhatsApp, но его тестирование даёт надежду на улучшенную защиту личного пространства пользователей.

В России разработали способ удалить свой биометрический след

В ИТ-компании «Криптонит» (входит в «ИКС Холдинг») разработали метод, который позволяет выборочно удалять цифровые образы людей из систем распознавания лиц. Если совсем просто, речь идёт о технологии, которая должна помочь реализовать право человека отозвать согласие на обработку своей биометрии — так, чтобы система действительно перестала его узнавать.

Проблема тут в том, что современные системы распознавания лиц устроены не так прямолинейно, как может показаться.

Даже если сведения о человеке формально удалили из базы, его цифровой образ может всё равно остаться внутри уже обученной модели. То есть на бумаге данные вроде бы стерли, а на практике алгоритм всё ещё способен узнать этого человека.

Именно это и делает тему особенно чувствительной. С биометрией всё сложнее, чем с обычными персональными данными: пароль можно поменять, а лицо — нет. Если такие данные утекают, риски уже совсем другого уровня, потому что украденные цифровые слепки можно использовать для создания поддельных образов и обхода биометрической аутентификации.

 

В «Криптоните» утверждают, что их метод решает задачу не маскировкой и не косметическим удалением, а на уровне внутренней логики самой модели. Проще говоря, алгоритм перестаёт использовать сведения о конкретном человеке и больше не может его распознавать, при этом способность узнавать остальных людей сохраняется.

По словам разработчиков, на тестовых наборах данных технология показала заметное снижение эффективности распознавания именно тех лиц, которые нужно «забыть», — до 88%. При этом общая точность системы, как утверждается, осталась на прежнем уровне.

Практическое применение у такого подхода вполне очевидное. В первую очередь это системы видеонаблюдения с распознаванием лиц, СКУД и корпоративная безопасность. Например, технология может пригодиться для удаления биометрических данных уволенных сотрудников, когда компания обязана прекратить их обработку, но не хочет при этом заново переобучать всю систему с нуля.

RSS: Новости на портале Anti-Malware.ru