Дыры в WordPress-плагине Ninja Forms позволяют выкрасть данные посетителей

Дыры в WordPress-плагине Ninja Forms позволяют выкрасть данные посетителей

Дыры в WordPress-плагине Ninja Forms позволяют выкрасть данные посетителей

Популярный плагин для сайтов на WordPress — Ninja Forms содержит три уязвимости, позволяющие злоумышленникам повысить свои права и выкрасть пользовательские данные. Напомним, Ninja Forms используется для создания форм на веб-ресурсах.

На баги указали исследователи из Patchstack. Информацию о трех брешах сразу же передали разработчикам плагина.

Судя по всему, уязвимости затрагивают Ninja Forms 3.6.25 и более поздние версии софта. В начале месяца девелоперы выпустили релиз под номером 3.6.26, устраняющий проблемы.

Аналитики WordPress.org опубликовали интересную статистику, согласно которой лишь около половины пользователей плагина установили последнюю версию. Это значит, что на сегодняшний день приблизительно 400 тысяч сайтов остаются уязвимыми для киберпреступников.

Первая из найденных дыр получила идентификатор CVE-2023-37979. В сущности, это межсайтовый скриптинг (XSS), позволяющий атакующему подвысить права и выкрасть данные. Для эксплуатации достаточно заманить целевого пользователя на специально подготовленную веб-страницу.

Ещё две уязвимости — CVE-2023-38393 и CVE-2023-38386 — связаны с недостаточным контролем доступа к функции экспорта введённой в поле информации. Обе бреши получили высокую степень риска.

 

С патчами разработчики добавили улучшенную проверку разрешений и ограничили доступ, чтобы устранить XSS.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru