В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

В новом релизе Axiom JDK и Libercat устранено 17 уязвимостей

Компания Axiom JDK представила новый релиз с критическими обновлениями безопасности для платформы Java Axiom JDK, сервера приложений Libercat и его сертифицированной версии Libercat Certified.

В общей сложности было устранено 17 уязвимостей, включая 6 критических, способных привести к удалённому выполнению кода или отказу в обслуживании.

Что нового в обновлении:

  • Обновление охватывает версии JDK 8, 11, 17, 21 и 24. При необходимости патчи могут быть предоставлены и для более ранних версий.
  • Устранены 5 уязвимостей класса CVE в компонентах security-libs, hotspot, client-libs и JavaFX.
  • Добавлены 652 дополнительных исправления и улучшения.
  • В сервере Libercat и Libercat Certified исправлены ещё 12 уязвимостей, в том числе 6 критичных.

О сервере Libercat:

Libercat — это стандартизованный сервер приложений, созданный на базе Apache Tomcat с учётом требований российского рынка. Он работает на платформе Axiom JDK и обеспечивает совместимость с российским оборудованием, системным ПО и СУБД, что делает его удобным решением для заказчиков, ориентированных на импортонезависимую ИТ-инфраструктуру.

Инспекционный контроль ФСТЭК:

Сертифицированная версия сервера — Libercat Certified — прошла инспекционный контроль во ФСТЭК России. По итогам проверки не было выявлено недекларированных возможностей, а сам продукт признан готовым к применению в системах с повышенными требованиями к информационной безопасности — в том числе на объектах критической информационной инфраструктуры и в государственных информационных системах.

Комментарий разработчика:

«В новых релизах Axiom JDK и Libercat мы устранили критические уязвимости и обеспечили соответствие действующим стандартам безопасной разработки, включая ГОСТ Р 56939-2024. Сертифицированная версия Libercat успешно прошла инспекционный контроль ФСТЭК, что подтверждает её готовность к использованию в защищённых сегментах. Наша задача — снижать риски на уровне платформы и давать ИТ- и ИБ-командам уверенность в устойчивости Java-инфраструктуры, не отвлекая их от стратегических задач», — отметил Сергей Лунегов, директор по продуктам Axiom JDK.

ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

Генеративный ИИ плохо справляются с созданием надёжных паролей. К такому выводу пришли специалисты компании Irregular, изучающие вопросы безопасности ИИ. Исследователи протестировали Claude, ChatGPT и Gemini. Всем моделям дали одинаковую задачу: сгенерировать 16-символьный пароль с буквами разного регистра, цифрами и спецсимволами.

На первый взгляд результаты выглядели убедительно: онлайн-проверки сложности показывали «очень сильный пароль» и даже обещали «сотни лет» на взлом такой комбинации. Но, как выяснилось, это иллюзия.

Проблема в том, что чекеры не учитывают характерные шаблоны, которые используют языковые модели. А вот злоумышленники могут учитывать. По данным Irregular, все протестированные ИИ генерировали пароли с повторяющимися структурами — особенно в начале и в конце строки.

Например, при 50 отдельных запросах к Claude (модель Opus 4.6) исследователи получили только 30 уникальных паролей. Причём 18 из них оказались полностью идентичными. Почти все строки начинались и заканчивались одинаковыми символами. Кроме того, ни в одном из 50 вариантов не было повторяющихся символов, что тоже говорит о предсказуемости, а не о случайности.

 

Похожие закономерности обнаружились и у OpenAI GPT-5.2 и Gemini 3 Flash. Даже когда исследователи попросили модель Nano Banana Pro «написать случайный пароль на стикере», характерные шаблоны Gemini всё равно сохранялись.

 

The Register повторил эксперимент с Gemini 3 Pro. Модель предлагала три варианта: «высокой сложности», «с упором на символы» и «случайный буквенно-цифровой». Первые два следовали узнаваемым шаблонам, а третий выглядел более случайным. При этом Gemini отдельно предупреждала, что такие пароли не стоит использовать для важных аккаунтов, и советовала воспользоваться менеджером паролей — например, 1Password или Bitwarden.

 

Irregular пошла дальше и оценила энтропию (меру случайности) таких паролей. Для 16-символьных строк, созданных LLM, она составила примерно 20–27 бит. Для действительно случайного пароля той же длины показатель должен быть около 98–120 бит.

 

В практическом плане это означает, что подобные ИИ-пароли теоретически можно перебрать за несколько часов, даже на старом компьютере.

Дополнительная проблема в том, что шаблоны позволяют выявлять, где ИИ использовался для генерации паролей. Поиск характерных последовательностей символов в GitHub уже приводит к тестовым проектам, инструкциям и документации с такими строками.

В Irregular считают, что по мере роста популярности вайб-кодинга и автоматической генерации кода проблема может только усилиться. Если ИИ будет писать большую часть кода (как ранее предполагал CEO Anthropic Дарио Амодеи), то и слабые пароли, созданные моделями, могут массово проникнуть в проекты.

RSS: Новости на портале Anti-Malware.ru