Межсетевой экран ESET NOD32 Firewall компании "ИСЕТ" прошел сертификацию по требованиям безопасности информации

Межсетевой экран ESET NOD32 Firewall компании "ИСЕТ" прошел сертификацию

Межсетевой экран ESET NOD32 Firewall, разработки и производства ЗАО «ИСЕТ», сертифицирован по схеме типового образца (на серийное производство) по требованиям безопасности информации в ФСТЭК России.

ESET NOD32 Firewall является многофункциональным программно-аппаратным средством периметровой защиты класса «все в одном» на Unix-подобной операционной системе с усиленными функциями безопасности. ESET NOD32 Firewall, кроме функций межсетевого экранирования, включает системы обнаружения и предупреждения сетевых атак IDS и IPS. Решение обеспечивает защиту HTTP, SMTP, POP3, SIP, FTP-прокси-серверов от вредоносного ПО благодаря интегрированной защите ESET NOD32. Фильтрация нежелательных сообщений (спама) осуществляется средствами Mailshell.

Полученный Сертификат соответствия ФСТЭК России № 1866 удостоверяет, что межсетевой экран ESET NOD32 Firewall является программно-техническим средством межсетевой защиты и соответствует требованиям руководящего документа «Средства вычислительной техники. Межсетевые экраны. Защита от несанкционированного доступа к информации. Показатели защищенности от несанкционированного доступа к информации (Гостехкомиссия России, 1997 г.) - по 4 классу защищенности.

Наличие указанного Сертификата ФСТЭК России позволяет использовать межсетевой экран ESET NOD32 Firewall для защиты конфиденциальной информации в сетях на базе стека TCP/IP.

Сертификационные испытания межсетевого экрана ESET NOD32 Firewall и проверку производства ЗАО «ИСЕТ» провела испытательная лаборатория ЗАО НПО «Эшелон».
В настоящее время испытательная лаборатория ЗАО «НПО «Эшелон» имеет опыт сертификации по требованиям безопасности информации более 250 систем и продуктов, в том числе межсетевых экранов и управляемых коммутаторов. В частности, сотрудники ЗАО «НПО «Эшелон» участвовали в сертификации средств межсетевого и межсегментного экранирования (в том числе по международным требованиям): «Континент-АП», «Шлюз безопасности» (ИСТ), «Тродос» (ИСТ), ФПСУ-IP, Check Point FireWall-1 NGX, Nortel, Cisco PIX линейки 506, 515, 525, 535, «Заслонка» (ВНИИНС), Eudemon 1000, Cisco ASA 5520, Cisco Catalyst 2960 и других.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru