Польский шпионский софт LetMeSpy свернулся после крупной утечки

Польский шпионский софт LetMeSpy свернулся после крупной утечки

Польский шпионский софт LetMeSpy свернулся после крупной утечки

Польская компания Radeal, занимающаяся разработкой LetMeSpy, сообщила о прекращении активности шпионского софта. Такое заявление последовало за недавней утечкой, в ходе которой были скомпрометированы данные тысяч владельцев мобильных устройств.

Про утечку мы писали в конце июня. Тогда Radeal разослала предупреждение о кибератаке, в которой злоумышленникам удалось добраться до текстовых сообщений, идентификаторов пользователей, имейлов, хешированных паролей и данных геолокации.

Теперь на официальном сайте компании красуется уже другое уведомление на польском и английском языках. В частности, в Radeal заявили о прекращении активности LetMeSpy: она сойдёт на нет до конца августа.

На веб-странице, которая раньше служила для входа в аккаунт, также висит сообщение, напоминающее о недавней атаке. Аналитики TechCrunch выяснили, что само приложение в настоящее время нельзя скачать на мобильное устройство.

Кстати, копия слитой БД попала в руки исследователей из DDoSecrets. По их словам, шпион LetMeSpy использовался для кражи данных более чем с 13 тыс. заражённых Android-устройств, хотя на самом сайте разработчиков есть информация, что софт контролирует более 236 тыс. девайсов.

Задача LetMeSpy заключалась в том, чтобы оставаться незамеченным на устройстве пользователя, параллельно собирая различные данные. Как правило, рядовому юзеру сложно удалить такое приложение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru