Не очень белый хакер использовал выявленный баг для скама Apple

Не очень белый хакер использовал выявленный баг для скама Apple

Не очень белый хакер использовал выявленный баг для скама Apple

Исследователь Ной Роскин-Фрейзи, который в прошлом помог Apple найти и пропатчить ряд уязвимостей, оказался не очень «белым» хакером. Выяснилось, что эксперт использовал один из багов для мошеннической деятельности, стоившей купертиновцам 2,5 миллиона долларов.

Роскин-Фрейзи работает в компании ZeroClicks Lab, ранее Apple не раз отмечала важный вклад этого специалиста в обнаружение уязвимостей в системах корпорации.

Однако исследователь умудрился запятнать свою репутацию после того, как стало известно об использовании одной из брешей в противозаконной деятельности.

Как сообщил новостной ресурс 404Media, Роскин-Фрейзи сначала обнаружил уязвимость в бэкенд-системе Apple — Toolbox, а затем использовал её для повышения прав и получения доступа к закрытым активам.

Toolbox используется для обработки заказов: Apple с её помощью ставит их на паузу, что позволяет редактировать занесённую информацию.

Известно также, что Роскин-Фрейзи задействовал механизм сброса пароля одного из сотрудников сторонней компании, которая управляет службами техподдержки Apple.

Скомпрометированный аккаунт далее использовался для доступа к другим учётным записям, одна из которых открывала путь к VPN-сервисам. Именно в этой точке злоумышленнику удалось добраться до Toolbox.

Сама система использовалась для корректировки стоимости заказа: Роскин-Фрейзи устанавливал $0 для покупки ноутбуков и смартфонов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru