Новый API в Google Chrome угрожает конфиденциальности пользователей

Новый API в Google Chrome угрожает конфиденциальности пользователей

Новый API в Google Chrome угрожает конфиденциальности пользователей

Google Chrome столкнулся с очередной волной критики, которая на этот раз касается нового API — getInstalledRelatedApps и его прямого воздействия на конфиденциальность пользователей.

API getInstalledRelatedApps находится в разработке с 2015 года. С выходом Chrome 59 (2017 год) инструмент внедрили в качестве эксперимента.

Полное описание getInstalledRelatedApps можно найти на GitHub. В сущности, этот API позволяет разработчикам определить, установлено ли их приложение на устройстве пользователя.

Само собой, подобная реализация имеет свои плюсы — к примеру, если у вас инсталлированы программы от одного разработчика на разных девайсах, API позволит избежать выведения одного уведомления дважды.

Однако проблема в том, что getInstalledRelatedApps создавался, скорее, в интересах этих самых девелоперов, а никак не обычных пользователей. В частности, при некорректном использовании вышеописанный API может представлять опасность для безопасности и конфиденциальности.

Предположим, что владелец определённого ресурса решил использовать getInstalledRelatedApps в своих целях. В результате веб-ресурс сможет вычислить, какие приложения установлены на вашем устройстве, а это уже позволит сложить общую картину того, чем вы занимаетесь.

Более того, зная, какие приложения установлены на девайсе пользователя, потенциальные злоумышленники могут сформировать целевые фишинговые письма. Также атакующие могут попытаться взломать устройство через уязвимости в приложениях.

По словам представителей Google, поддержку нового API планируется реализовать в будущих версиях браузера Chrome. Повод ли это перейти на Firefox?

А ведь совсем недавно на Google ополчились из-за Manifest V3 — нового подхода к блокировке рекламы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru