MaxPatrol VM включен в реестр продуктов с ИИ

MaxPatrol VM включен в реестр продуктов с ИИ

MaxPatrol VM включен в реестр продуктов с ИИ

Система управления уязвимостями MaxPatrol VM 2.7 была отмечена в реестре российского ПО как продукт, который использует технологии искусственного интеллекта. Получить такую отметку позволила функция умного поиска информации по активам.

В MaxPatrol VM 2.7 пользователи могут проводить полнотекстовый поиск информации по активам, не используя запросы на языке Positive Data Query Language (PDQL).

В результате отпадает необходимость знать данный язык запросов для начала работы с MaxPatrol VM, что существенно понижает порог входа для применения решения.

Функция позволяет использовать текстовые запросы при поиске информации об уязвимостях на различных активах, в том числе критических, включая устаревшие программные системы и программно-аппаратные комплексы. Активировать функцию поиска с помощью ИИ можно в инсталляторе при обновлении MaxPatrol VM.

Ранее MaxPatrol VM был включен в каталог совместимости отечественного ПО, который позволяет компаниям находить максимально подходящие для своих потребностей отечественные решения в качестве замены иностранным.

«Умный поиск информации по активам с применением искусственного интеллекта снижает порог входа для работы пользователей с продуктом, не требуя от них обязательного изучения языка Positive Data Query Language (PDQL)  для составления распространенных запросов. Благодаря алгоритмам ИИ в системе можно быстро находить информацию об активах организации или выявлять необходимые группы данных — например, уязвимости Linux-пакетов на активах или устройства, требующие установки патчей. Это позволяет снизить когнитивную нагрузку на специалистов», —обратил внимание Денис Матюхин, руководитель продукта MaxPatrol VM.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru