Исследователи нашли способ удаленно восстановить фото на iPhone X

Исследователи нашли способ удаленно восстановить фото на iPhone X

Исследователи нашли способ удаленно восстановить фото на iPhone X

Двое исследователей в области кибербезопасности получили $50 тысяч за открытие эксплойта, который позволял восстановить ранее удаленные фото или файлы на смартфоне iPhone X. Проблему обнаружили Ричард Зу и Амат Кама в ходе специального конкурса. Apple уже получила все необходимы сведения об уязвимости, однако, скорее всего, патч мы увидим только в следующем обновлении iOS.

Продемонстрированный экспертами способ эксплуатации этой бреши подразумевает, что у атакующего должен быть определенный доступ к iPhone X. Однако Зу и Кама полагают, что баг можно использовать при помощи вредоносной точки доступа Wi-Fi.

Если их предположения верны, для злоумышленников открывается неплохой вектор атаки на любителей техники Apple.

Когда вы удаляете какое-либо фото на iPhone X, iOS выводит предупреждение «Это фото будет удалено из iCloud на всех ваших устройствах», вы можете подтвердить удаление, нажав соответствующую кнопку.

После этого вы сможете найти эту фотографию в папке «Недавно удаленные» (если место в iCloud не осталось, фото удаляется сразу). Из этой папки файл можно удалить навсегда, либо он удалится сам по прошествии 30 дней.

Суть уязвимости, обнаруженной Ричардом Зу и Аматом Камой, заключается в использовании JIT-компиляции (Just-in-time compilation, компиляция «на лету», динамическая компиляция), которая должна обрабатывать код во время запуска программы, передает The Verge.

Эксперты утверждают, что компрометация JIT-компиляции может позволить удаленному злоумышленнику восстановить «недавно удаленные» фотографии. В теории любые данные, обрабатываемые JIT-компилятором могут быть уязвимы для атаки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru