FortiGate получил сертификат ФСТЭК для МСЭ по новым требованиям

FortiGate получил сертификат ФСТЭК для МСЭ по новым требованиям

FortiGate получил сертификат ФСТЭК для МСЭ по новым требованиям

Компания Fortinet сегодня объявила об успешном завершении сертификации межсетевых экранов FortiGate Enterprise Firewall на соответствие требованиям Федеральной службы по техническому и экспортному контролю (ФСТЭК). Сертификат соответствия ФСТЭК № 3720 был выдан 16 марта 2017 г. 

Сертификат подтверждает, что FortiGate Enterprise Firewall, функционирующий под управлением операционной системы FortiOS с версией программного обеспечения 5.4.1 и разработанный компанией Fortinet, является программно-техническим средством защиты от несанкционированного доступа к информации, не содержащей сведений, составляющих государственную тайну, и соответствует требованиям руководящих документов:

  • “Требования к межсетевым экранам” (ФСТЭК России, 2016);
  • “Профиль защиты межсетевого экрана типа А четвертого класса защиты. ИТ.МЭ.А4.П3”. (ФСТЭК России, 2016); 
  • “Профиль защиты межсетевого экрана типа Б четвертого класса защиты. ИТ.МЭ.Б4.ПЗ”. (ФСТЭК России, 2016);
  • “Требования к системам обнаружения вторжений» (ФСТЭК России, 2011);
  • “Профиль защиты систем обнаружения вторжений уровня сети четвертого класса защиты. ИТ.СОВ.С4.П3” (ФСТЭК России, 2012).

Соответствие указанным классам защиты обеспечивает выполнение требований  контроля исходного состояния ПО, а также контроля полноты и отсутствия избыточности исходных текстов на уровне файлов и на уровне функциональных объектов (процедур). Что в свою очередь обеспечивает соответствие требованиям руководящего документа «Защита от несанкционированного доступа к информации. Часть 1. Программное обеспечение средств защиты информации. Классификация по уровню контроля отсутствия недекларированных возможностей» (Гостехкомиссия России, 1999) – по 4 уровню контроля.

FortiGate Enterprise Firewall может применяться в государственных информационных системах до 1 класса защищенности включительно, а также в информационных системах до 1 уровня защищенности персональных данных включительно. 

Решения FortiGate Enterprise Firewall являются частью Fortinet Security Fabric, которая реализует функции отслеживания, интеграции, управления и масштабирования инфраструктуры, и обеспечивает эффективную защиту от изощренных современных угроз. Устройства комплексной сетевой безопасности FortiGate Enterprise Firewall обеспечивают непревзойденную производительность и защиту, одновременно упрощая сетевую инфраструктуру. 

Компания Fortinet предлагает широкий модельный ряд решений, подходящих для самых различных заказчиков: от небольших предприятий и офисов, до крупных компаний и провайдеров. Для обеспечения всесторонней и высокопроизводительной защиты сети, решения FortiGate используют операционную систему FortiOS с процессорами FortiASIC и другим аппаратным обеспечением.

Решения FortiGate Enterprise Firewall обеспечивают высокую защиту против самых современных сетевых угроз и угроз на уровне приложений. FortiGate Enterprise Firewall обладают широким сетевым функционалом, включая кластеризацию (active/active, active/passive) и виртуальные домены (VDOM).

«Мы гордимся тем, что наши межсетевые экраны полностью соответствуют требованиям ФСТЭК, утвержденным в сентябре 2016 года. Fortinet одна из первых компаний, которые обладают полным набором сертификатов, соответствующих этим новым требованиям, -  заявил Михаил Родионов, глава представительства Fortinet в России. Наличие сертификации является непременным условием работы с большей частью госструктур и позволяет применять продукты защиты информации в системах обработки персональных данных», - завершил он.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru