Новейшая версия Outpost Firewall Pro 2009 от Agnitum набирает 99% в комплексном тестировании безопасности

Новейшая версия Outpost Firewall Pro 2009 от Agnitum набирает 99% в комплексном тестировании безопасности

Компания Agnitum - эксперт в области сетевой безопасности - сообщает об успехе новейшей версии своего флагманского продукта Outpost Firewall Pro 2009 (выпущенной 2 июля 2008 года в составе линейки продуктов Outpost Pro 2009) в тестировании персональных брандмаэуров на утечку данных Firewall Challenge, проведенном Matousec Transparent Security (www.matousec.com) 3-го и 4-го июля 2008. В этом тестировании Outpost с рейтингом 99 % стал лучшим среди 35 комплексных продуктов безопасности и отдельных сетевых экранов.

Тест на утечку данных (leaktest) - это особая программа, разработанная с целью проверки возможностей проактивной защиты брандмауэра и ее предполагаемых уязвимостей. Непрохождение «ликтеста» означает, что защитное ПО не может предотвратить утечку данных пользователя при условии использования определенной хакерской методики или вида вредоносного кода.

Многие из методик, используемых в «ликтестах» Matousec, уже взяты на вооружение реальными вредоносными программами - шпионским ПО, троянскими конями, кейлоггерами (регистраторами клавиатурных нажатий), червями и другими типами кибер-угроз.


«Ликтесты» не единственный вызов продуктам компьютерной безопасности. Лаборатория Matousec Transparent Security также анализирует эффективность брандмауэров с помощью:


- общих тестов на обход защиты (general bypassing tests), которые имитируют попытки вредоносного ПО обойти систему безопасности продукта в целом, не посягая на отдельные компоненты;
- тестов на отключение продукта (termination tests), которые имеют своей целью вывести из рабочего режима продукт и его защитные функции;
- тестов-«шпионов» (spying tests, включая кейлоггеры), которые выявляют способность брандмауэра предотвращать «шпионскую» деятельность вредоносных программ в отношении данных пользователя;
- тестов на производительность (performance tests).


"Мы благодарны тестовой лаборатории Matousec за их работу и ценные рекомендации! Последние исследования показали, что проактивной защите Outpost не хватает всего одного шага до заветного стопроцентного показателя, и мы уверены, что сможем его достигнуть в самом скором времени", - отмечает руководитель Отдела постановки задач Agnitum Алексей Белкин.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru