VMware закрыла баг vRealize Log Insight, позволяющий запустить код от root

VMware закрыла баг vRealize Log Insight, позволяющий запустить код от root

VMware закрыла баг vRealize Log Insight, позволяющий запустить код от root

VMware устранила критическую уязвимость в vRealize Log Insight, позволяющую злоумышленникам удалённо выполнить код в уязвимых системах. Брешь отслеживается под идентификатором CVE-2023-20864 и представляет собой проблему десериализации.

Согласно описанию, уязвимость можно использовать для запуска произвольного кода от root. Более того, CVE-2023-20864 эксплуатируется удалённо и без взаимодействия с пользователем. Запуск такой атаки при этом не представляет особой сложности.

VMware также подготовила патчи и для второй бреши — CVE-2023-20865, позволяющей удалённым злоумышленникам с правами администратора запустить команды от root. Заплатки доступны в версии VMware Aria Operations for Logs под номером 8.12.

Пока нет никаких признаков эксплуатации этих багов в реальных кибератаках. Однако пользователям всё равно нужно установить патчи как можно скорее.

«CVE-2023-20864 представляет собой критическую проблему, которую необходимо пропатчить максимально быстро. Обратите внимание, что уязвимость содержится исключительно в версии 8.10.2», — пишет VMware.

«Другие релизы утилиты VMware Aria Operations for Logs (бывшая vRealize Log Insight) затронуты багом под номером CVE-2023-20865. Уровень его опасности по шкале CVSSv3 оценивается в 7,2 балла».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru