Fortinet выпускает ИИ-систему FortiGuard AI для выявления угроз

Fortinet выпускает ИИ-систему FortiGuard AI для выявления угроз

Fortinet выпускает ИИ-систему FortiGuard AI для выявления угроз

Сегодня компания Fortinet объявила о выходе решения FortiGuard AI. Это событие знаменует собой начало новой эры в сфере выявления угроз и сбора данных о них. Решение FortiGuard AI встроено в платформу сбора данных об угрозах Fortinet и предназначено для автоматизированного анализа и выявления угроз в целях обеспечения непрерывного обновления пользовательских средств в составе адаптивной системы сетевой безопасности. Такой подход повышает эффективность защиты от постоянно появляющихся новых угроз.

  • FortiGuard AI — это саморазвивающаяся автономная система выявления угроз, которая при помощи технологий машинного обучения и непрерывной тренировки с высокой точностью собирает, анализирует и классифицирует угрозы на скорости машины.
  • Решение FortiGuard AI интегрировано в платформу служб сбора данных об угрозах Fortinet и обеспечивает работу всех функций выявления продвинутых угроз, которыми оснащены службы FortiGuard в составе адаптивной системы сетевой безопасности.
  • Также компания Fortinet объявила о выходе новых функций анализа сущности и поведения пользователей (UEBA) и выпуске корпоративной версии службы FortiGuard Threat Intelligence Service (TIS).

Разработка и тренировка решения FortiGuard AI при помощи технологий управляемого обучения продолжались более пяти лет. Это решение еженедельно анализирует миллионы образцов угроз. Обработка образцов осуществляется при помощи более чем пяти миллиардов обрабатывающих узлов, которые выявляют как вредоносные, так и незараженные компоненты каждого образца. С помощью современных алгоритмов FortiGuard AI в упреждающем режиме определяет степень опасности каждого нового образца и создает данные об угрозах, которые используются для обновления защитных подписей всех средств в составе адаптивной системы сетевой безопасности Fortinet.

Скорость, масштаб охвата и точность работы FortiGuard AI повышают эффективность ведущих служб сбора данных об угрозах Fortinet, при помощи которых осуществляется разработка обновлений в режиме реального времени и средств упреждающей защиты от угроз для адаптивной системы сетевой безопасности Fortinet.

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru