iOS-приложения могут собирать метаданные, раскрывающие местоположение

iOS-приложения могут собирать метаданные, раскрывающие местоположение

iOS-приложения могут собирать метаданные, раскрывающие местоположение

Разработчик обнаружил, что у пользователей устройств Apple могут появиться проблемы с конфиденциальностью - приложения могут получать метаданные изображений и, следовательно, историю местоположений.

«Если приложение получает разрешение на доступ к библиотеке изображений, оно также получит полный доступ ко всем метаданным изображений, включая точное местоположение. Это серьезная проблема, касающаяся конфиденциальности, так как теперь любое стороннее приложение, выполняющее функции камеры, также получит полный доступ ко всем фотографиям и местоположениям в библиотеке изображений», - объясняет подробнее Феликс Краузе (Felix Krause), основатель Fastlane.Tools.

Теперь можно легко получить метаданные изображения пользователя:

```objective-c
PHFetchResult *photos = [PHAsset fetchAssetsWithMediaType:PHAssetMediaTypeImage options:nil];
for (PHAsset *asset in photos) {
    if ([asset location]) {
        // Access the full location, speed, full picture, camera model, etc. here
    }
}
```

Краузе выложил доказательство концепции (proof-of-concept) этой проблемы на GitHub, на его создание, по словам Краузе, у него ушло менее часа.

Более того, помимо местоположения из изображений можно получить следующие данные:

  • Физическая скорость, с которой делался снимок или видео (как быстро перемещалась камера);
  • Модель камеры;
  • Точная дата и время.

Эксперт утверждает, что Apple нужно пересмотреть политику, касающуюся разрешений, либо предоставить пользователю выбор - какому приложению разрешить доступ к метаданным изображений.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru