В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

Компания Axiom JDK представила новый релиз с критическими обновлениями безопасности для платформы Java Axiom JDK, сервера приложений Libercat и его сертифицированной версии Libercat Certified.

В общей сложности было устранено 17 уязвимостей, включая 6 критических, способных привести к удалённому выполнению кода или отказу в обслуживании.

Что нового в обновлении:

  • Обновление охватывает версии JDK 8, 11, 17, 21 и 24. При необходимости патчи могут быть предоставлены и для более ранних версий.
  • Устранены 5 уязвимостей класса CVE в компонентах security-libs, hotspot, client-libs и JavaFX.
  • Добавлены 652 дополнительных исправления и улучшения.
  • В сервере Libercat и Libercat Certified исправлены ещё 12 уязвимостей, в том числе 6 критичных.

О сервере Libercat:

Libercat — это стандартизованный сервер приложений, созданный на базе Apache Tomcat с учётом требований российского рынка. Он работает на платформе Axiom JDK и обеспечивает совместимость с российским оборудованием, системным ПО и СУБД, что делает его удобным решением для заказчиков, ориентированных на импортонезависимую ИТ-инфраструктуру.

Инспекционный контроль ФСТЭК:

Сертифицированная версия сервера — Libercat Certified — прошла инспекционный контроль во ФСТЭК России. По итогам проверки не было выявлено недекларированных возможностей, а сам продукт признан готовым к применению в системах с повышенными требованиями к информационной безопасности — в том числе на объектах критической информационной инфраструктуры и в государственных информационных системах.

Комментарий разработчика:

«В новых релизах Axiom JDK и Libercat мы устранили критические уязвимости и обеспечили соответствие действующим стандартам безопасной разработки, включая ГОСТ Р 56939-2024. Сертифицированная версия Libercat успешно прошла инспекционный контроль ФСТЭК, что подтверждает её готовность к использованию в защищённых сегментах. Наша задача — снижать риски на уровне платформы и давать ИТ- и ИБ-командам уверенность в устойчивости Java-инфраструктуры, не отвлекая их от стратегических задач», — отметил Сергей Лунегов, директор по продуктам Axiom JDK.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru