157 гигабайт конфиденциальных данных Ford, Tesla были скомпрометированы

157 гигабайт конфиденциальных данных Ford, Tesla были скомпрометированы

157 гигабайт конфиденциальных данных Ford, Tesla были скомпрометированы

157 гигабайт конфиденциальных документов, принадлежащих таким крупным компаниям, как General Motors, Volkswagen, Fiat Chrysler, Ford, Tesla, Toyota и ThyssenKrupp были обнаружены на общедоступном сервере, принадлежащем Level One Robotics.

Утечка произошла из-за использования протокола передачи файлов rsync, который используется для резервного копирования (бэкапа) больших объемов данных.

Исследователи отмечают, что сервер был настроен таким образом, что любой клиент rsync, подключенный к порту, мог свободно загрузить эти данные.

На данный момент неизвестно, кто мог получить доступ к внутренней информации крупных компании, также расходятся мнения относительно содержимого этих данных.

Специалисты подчеркивают, что владельцам сервера стоило побеспокоиться о настройке rsync таким образом, чтобы клиент должен был пройти процесс аутентификации перед получением доступа к данным корпораций.

Есть информация о том, что среди просочившихся в общий доступ данных имеются планы, макеты, конфигурации, различная документация и другие конфиденциальные данные. Имеются даже образцы договоров Tesla, детали которых не должны разглашаться.

Помимо этого, также были раскрыты личные данные некоторых сотрудников Level One, среди них сканы водительских прав и паспортов, бизнес-данные Level One, счета-фактуры, контракты и реквизиты банковского счета.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru