Приложение для знакомств сторонников Трампа сливало данные пользователей

Приложение для знакомств сторонников Трампа сливало данные пользователей

Приложение для знакомств сторонников Трампа сливало данные пользователей

Приложение для знакомств сторонников Дональда Трампа, чей девиз «заставим Америку снова встречаться» («make America date again» — аллюзия к знаменитому лозунгу Make America Great Again, Вернём Америке былое величие), допустило утечку базы данных своих пользователей. Утечка произошла в день запуска приложения.

Приложение называется «Donald Daters», оно предназначено для поиска пары, друзей и сторонников нынешнего президента США. Новинка уже получила оценки таких изданий, как Fox News, Daily Mail и The Hill.

В день запуска у приложения насчитывалось чуть больше 1600 пользователей, их количество продолжало расти. Однако исследователь в области безопасности обнаружил у приложения недостатки, которые позволяли третьим лицам загрузить базу данных пользователей.

Эллиот Алдерсон, независимый исследователь, смог заполучить базу данных, которая включала имена пользователей, фотографии профилей, тип устройств пользователей и их личные сообщения. Самое главное — база содержала токены, открывающие доступ к аккаунтам.

Всю эту информацию можно было получить из общедоступного и незащищенного репозитория Firebase, который был жестко запрограммирован в приложении. После сообщения эксперта разработчики быстро убрали базу из общего доступа.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru