Тест антивирусов на быстродействие (подготовка) - Тесты и сравнения - Форумы Anti-Malware.ru Перейти к содержанию
Сергей Ильин

Тест антивирусов на быстродействие (подготовка)

Recommended Posts

Сергей Ильин

Уважаемые коллеги, мы планируем проведение нового для нашего портала теста антивирусов. На этот раз антивирусные продукты будут сравниваться по скорости работы и потребляемым ресурсам.

Так как тест новый и приличной готовой методологии не существует, то предлагаю в этой теме обсудить предстоящий тест.

В первом приближении я предлагаю рассмотреть следующий план:

I Подготовка теста

1. Подготовка чистых реальных машин с установленной XP SP2 и Vista SP1 со всеми актуальными обновлениями.

2. Установка типового набора ПО (Office, графика, утилиты, игры).

3. Отключение "паразитных" функций ОС, способных повлиять на результат теста (обновления, скринсейверы, кибернация и т.п.)

4. Измерение базовых характеристик чистой системы.

5. Формирование тестовой коллекции чистых файлов (набор системных папок + установленный набор софта и их дистрибутивы + офисные документы различного типа и размера). Создаем описание тестовой коллекции файлов по типам и размерам.

6. Создание образа системы при помощи специально по (Acronis или аналоги).

7. Установка антивируса и его обновление. Настройки остаются по умолчанию, но фиксируются в сводную таблицу (проверка HTTP, проверка типов файлов, включенные модули и т.п.).

9. Перезагрузка системы.

10. Отключение функций автоматического обновление антивируса и старта других задач по расписанию.

11. Создание образа системы.

II Измерение скорости работы файлового монитора и сканера по требованию

1. Измерение скорости загрузки системы с установленным антивирусом (первая загрузка из образа).

2. Копирование тестовой коллекции файлов, измерение времени (5 раз). Откат системы после каждого прогона.

3. Проверка тестовой коллекции файлов сканером по требованию (5 раз). Откат системы после каждого прогона.

3а*. Повторная проверка тестовой коллекции сканером для определения эффективности работы технологий оптимизации (факультативно).

4. Скачиваем из изолированной локальной сети набор файлов по протоколу http (несколько раз) и замеряем время при помощи специального BAT-файла.

5. Измеряем время старта типовых приложений (IE, Outlook, Word, Acrobat, Photoshop) и игр при помощи утилиты AppTimer.

Отказываемся! 6. Запускаем установку дистрибутива ПО (например, Fotoshop и/или крупная игра).

7. Измерение производительности системы при помощи утилит Office Performance Test, Sysmark, 3DMark и PCMark.

III Измерение потребления ресурсов

8. Измеряем размер потребляемой памяти в состоянии покоя и при сканировании тестовой коллекции (максимальный, средний) при помощи утилиты Process Explorer для пункта 3.

9. Измеряем использование CPU в состоянии покоя и при сканировании (максимальный, средний) для пункта 3.

Повторение пунктов 1-9 частей I и II для каждого антивирусного продукта.

Подведение итогов

1. Расчет/нормирование результатов "торможения" системы с антивирусами относительно эталона по каждому критерию.

2. Формирование сводного индекса загрузки системы для каждого антивируса на основании системы весов.

Буду очень рад любым мнениям, замечаниям по предложенной методологии тестирования.

Начало теста – 15 июня.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Winny
2. Проверка тестовой коллекции файлов сканером по требованию (2 раза).

Между этими проверками производится обновление вирусных баз.

Ы?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Иван
Между этими проверками производится обновление вирусных баз.

Ы?

да, надо

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
alexgr

думаю - важно. Загрузка ОС без антивируса. Старт приложений на машине без антивируса. Тогда будет видна задержка, вносимая установленным антивирусом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Илья Рабинович

Я бы добавил сюда измерение времени запуска пары-тройки популярных игрушек типа WoW (этой у меня нет) или C&C (эта у меня есть).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
EYE
....несколько типов: исполняемые, архивы, офисные документы, медиа-файлы

Упакованные файлы?

Настройки антивирусного ПО ? -

1. Рекомендуемые

2. Максимально возможные

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Иван

Методология теста пока на методологию не тянет, не описано фактически ничего, даже тестовый стенд толком не описан

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Valery Ledovskoy
4. Запускаем установку дистрибутива ПО (например, fotoshop и/или крупная игра типа Q4)

Из игр лучше TestDriveUnlimited. У меня 1240x1024 только на Core2Quad с 4Гб ОЗУ комфортно стало. Хорошо процессор грузит.

Или Crysis. Там даже демо-утилита есть какая-то для тестирования производительности.

А можно использовать заслуженные тесты типа 3DMark и PCMark... Q4 - это уже несколько неактуально, ИМХО.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Ashot
Замеряем использование CPU в состоянии покоя и при сканировании (максимальный, средний)

Как? По Task Manager? Если да, то это не корректно. Что с того, что там будет скажем 90% занято каким-то процессом какого-то антивируса? Это не значит, что он сволочь такая сожрал и никому не дает работать. Это лишь значит, что система в данный конкретный момент времени решила, что ему можно выделить столько процессорного времени. Вытесняющая многозадочность... Тест бесполезный ибо даже вредный ;)

Измеряем размер потребляемой памяти в состоянии покоя и при сканировании тестовой коллекции (максимальный, средний).

Опять же какой памяти? Виртуальной (включая свопинг)? Или память ядра, тогда ИМХО имеет смысл только non paged pool смотреть, ибо только он критичный - остальное все свопитсяи к продукту имеет опосредованное отношение, тут memory manager винды больше рояля играет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Олег Гудилин

Я прочел "методологию".

Я надеюсь, авторы теста понимают, что:

1.Этот тест нельзя проводить на виртуальных машинах ибо они не могут имитировать производительность реальной системы и более того такое тестирование заведомо не может обеспечить одинаковые условия для всех тестируемых. Нужна реальная машина + Acronis для создания образов системы и возможности отката системы в исходное положение не только при переходе от продукта к продукту, но и между разными тестами одного и того же продукта.

2 Необходимо для всех тестов делать несколько замеров и брать усредненные значения. Причем если вы собираетесь учитывать технологии оптимизации (а с тут будут проблемы), то несколько замеров как учитывающих технологи оптимазации, так и не учитывающих. Соответсвенно между одинаковыми замерами надо производить откат системы назад, а между "первопрогонным замером" и замером с учётом оптимизации нужно перезагружать системы дабы убрать функции оптимизации самой ОС.

Т.е. последовательность примерно такая: первопрогон, перзагрузка, второй прогон, откат системы, повтор цикла, повтор цикла...берем усредненные значения первого и второго прогонов.

Откат либо перезагрузка машины должны в принципе проводиться между любыми двумя замерами. С рекомендациями MS по настройке тестовой ОС можно ознакомиться тут: http://www.microsoft.com/whdc/system/sysperf/default.mspx Надо отключать все скринсервер, хибернейт и поч и проч.

Что касается обновления баз между "первопрогоном" и прогоном с учётом оптимизации если вы хоттите эту оптимизацию учитывать - мысль конечно интересная, направлена она на то чтобы при повторных прогонах мы все на айчекр айсвифт не брали. Но как вы собираетесь тогда создавать условия равные? Если в момент теста пройдет у кого-то обновление, то это обновление может повлиять на результат последующих прогонов.

Да и на самом деле проверяется или не проверяется неизмененный файл зависит в реальной жизни вовсе не только от того обновил ты базы или нет, а от кучи других параметров, которые начинают "играть" только при долгой работе антивирса на компе. Как вы это планируете учитывать мне не очень понятно.

Все задачи по расписанию в антивирусе должны быть естественно отключены, антивирус должен закончить все проверки, которые он выполняет при старте системы.

3.Для тестирования лучше всего использовать среднестатистический компьютер рекомендованного для данной операционной системы уровня, без излишних наворотов таких как многопроцессорность, экстремальный размер оперативки т.д.

4.Тестовые операционные сситемы разумно брать XP 32bit SP3 и Vista 32bit SP1 со всеми рекомендованными обновлениями.

5.Состав тестовой коллекции отдельная тема. Вполне разумным вариантом будет взять и на установленной в отдельном разделе операционной системе поставить все обновления, офис, фотошоп, акробат и другие стандартные приложения, желательно еще SysMark. Далее взять все файлы из Windows, Program Files, Data Files (это если есть SysMark) добавить туда большой объем фотографий, медиафайлов, документов и дистрибутивов программ - вот смешанная коллекция. Плюс к этому при желании можно из этой коллекции специально отобрать файлы размером скажем 10 Mb и дополнительно прогонять на коллеции этих больших файлов.

Специально подсовывать на тестирование определенные (например упакованные) файлы не имеет практического смысла – нужно тестировать на том, что обычно у пользователя есть на компьютере.

Коллекцию желательно держать на отдельном жестком диске, который подсоединять при тестировании.

Как я уже сказал, что между замерами в рамках одного теста должна перезагружаться ОС, а между разными тестами полностью откатываться система в исходное состояние (соответственно и перезаливается коллекция).

6.При проверке on-access для чистоты эксперимента желательно копировать с одного физического диска на другой, а не между логическими разделами. Кроме того для совсем чистого эксперимента лучше делать это командой copy (запуская простейший батник)

7.Все замеры по копированию и сканированию лучше проводить при помощи специально написанных батничков, а не с секундомером в руках. Так точнее будет

8."Измерение скорости загрузки системы с установленным антивирусом" Во-первых, после установки антивируса и его обновления система должна быть перезагружена и уже после этого надо замерять дальнейшие перезагрузки. Время первой загрузки после установки абсолютно не показательно, поскольку это единичная история, а пользователю важно сколько он тратит время при ежедневных перезагрузках. Ну если очень хочется, то можно время первой перезагрузки замерять отдельно, а дальше давать усредненное значение нескольких дальнейших загрузок.

9. Важно четко осознавать, что здесь имеется в виду. Если это копирование коллекции файлов с сетевого на локальный диск это одно. Всяческие игры с уже существующей корпоративной сеткой одинаковых условий для всех продуктов не дадут. Тут тогда надо для частоты эксперимента напрямую связывать два компа.

Если мы говорим о скачивании по http, то тут опять же ни о каком использовании закачки с каких либо Интернет ресурсов речи идти не может, поскольку равных условий для продуктов не будет. Опять же напрямую связанные 2 тестовых компа, на одном из которых http сервис.

Кроме того при проверке по http категорически нельзя сравнивать продукты, у которых есть вебантивирус (Касперский, есет, битдефендер) с теми у кого его нет (доктор, симантек и др.)

10. Скорость старта приложений если таковая будет замеряться лучше замерять спецутилитами, например AppTimer.

11. Хотелось бы узнать какими средствами планируется замерять потребления ресурсов. Надеюсь не диспетчером задач?

12. Хотелось бы видеть список продуктов, которые планируется тестировать.

Если же

- проводить тест на виртуалках или на одном и том же компьютере, снося и ставя антивирусы.

-не стараться отсеивать возможные паразитарные эффекты, влияющие на точность результатов

Тогда получится еще один журнальный тест и нашему удивлению от вашей работы не будет предела.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
dot_sent
11. Хотелось бы узнать какими средствами планируется замерять потребления ресурсов. Надеюсь не диспетчером задач?

+1

Кроме того, для адекватной оценки среднего надо каждый тест повторять хотя бы по 5 раз и брать среднее. Возможно, с отбрасыванием двух граничных значений (сверху и снизу).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
alexgr

может-как по мне-для заявленного исследования и вовсе не стоит проводить замеры загрузки проца и памяти? цифры времени куда убедительнее

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
TiX

Куча проблем.

по скачке коллекции - у разных АВ есть / нету Traffic scannera / scanirovanija pakovannih objectov v traffike

по ресурсам - замер скорости и потребления монитора на премере ДрВеб - драйвер - как замерить сколько памяти и процессора жрет драйвер?

По загрузке системы - учитыать технилогии ускорения.

Вобщем каждый "этап теста" должен производится 3 раза, результаты усреднятся.

Опять таки вопрос обновления баз (авто обновлялку надо отключить дабы она не сработала)

Ну и конечно настройки АВ... Опять таки Доктор и каспер с различными оптимизаторами.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
EYE
Специально подсовывать на тестирование определённые (например упакованные) файлы не имеет практического смысла – нужно тестировать на том, что обычно у пользователя есть на компьютере.

На данный момент, труднее найти дистрибутив (вне зависимости от размера) с тем или иным программным продуктом, либо игрой,

в котором не присутствуют упакованные файлы, чем тот, в котором они отсутствуют.

Соответственно, подобные файлы, в изобилии присутствуют у обычного пользователя на компьютере.

Можно будет увидеть, насколько быстро справляется эмулятор тех или иных продуктов,

сталкиваясь с подобными дистрибутивами, либо файлами.

Да, кстати, а как практически, авторы теста планируют измерять скорость работы файлового монитора?

Каким образом, будет измеряться _мгновенное_ срабатывание монитора, скажем продукта A, и далеко

не мгновенное срабатывание продукта B ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Александр Шабанов
Измерение потребления ресурсов

1. Измеряем размер потребляемой памяти в состоянии покоя и при сканировании тестовой коллекции (максимальный, средний).

2. Замеряем использование CPU в состоянии покоя и при сканировании (максимальный, средний)

Имеет ли смысл смотреть вообще потребляемые ресурсы сканером? В этом плане солидарен с Ашотом.

Такое исследование имело бы более интересные результаты для анализа производительности именно монитора.

То есть коллекция должна быть не пассивной, а активной. Возможно стоит выделить какой-то промежуток времени, может быть пару дней, поставить счетчики и моделировать итерационную файловую активность, тогда мы будем

тенденции, пики и более четкую картину, возможно даже кто-то будет съедать память и т.д.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Олег Гудилин
На данный момент, труднее найти дистрибутив (вне зависимости от размера) с тем или иным программным продуктом, либо игрой,

в котором не присутствуют упакованные файлы, чем тот, в котором они отсутствуют.

Соответственно, подобные файлы, в изобилии присутствуют у обычного пользователя на компьютере.

Можно будет увидеть, насколько быстро справляется эмулятор тех или иных продуктов,

сталкиваясь с подобными дистрибутивами, либо файлами.

Полностью согласен. Но только гонять надо не на наборе упакованных, а на этих самых дистрибутивах. Чтоб количество упакованных файлов соответсвовало их реальному кол-ву у пользователей. ПРичем тут тупое сканирование на наборе упакованных?

Да, кстати, а как практически, авторы теста планируют измерять скорость работы файлового монитора?

Каким образом, будет измеряться _мгновенное_ срабатывание монитора, скажем продукта A, и далеко

не мгновенное срабатывание продукта B ?

Чегось? Вы предполагаете замеры будут на одном файле производиться? Не дай бог.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Сергей Ильин
Упакованные файлы?

Настройки антивирусного ПО ? -

1. Рекомендуемые

2. Максимально возможные

Думаю надо использовать рекомендуемые настройки, как это делает подавляющее большинство пользователей.

Для упакованных файлов нужно включить, согласен.

думаю - важно. Загрузка ОС без антивируса. Старт приложений на машине без антивируса. Тогда будет видна задержка, вносимая установленным антивирусом.

Да, это заложено в описанном мной в первом посте планом. Смотрим время загрузки чистой ОС и с установленным антивирусом. На всякий случай делаем несколько итераций, чтобы свести к минимуму возможные ошибки. Функцию обновления выключаем, чтобы это не отражалось на результатах.

Методология теста пока на методологию не тянет, не описано фактически ничего, даже тестовый стенд толком не описан

Что нужно конкретно описать в части тестового стенда? Кому из заинтересованных лиц надо это разжёвывать? Необходимый минимум я указал - будем смотреть XP и Vista.

Из игр лучше TestDriveUnlimited. У меня 1240x1024 только на Core2Quad с 4Гб ОЗУ комфортно стало. Хорошо процессор грузит. Или Crysis. Там даже демо-утилита есть какая-то для тестирования производительности.

А можно использовать заслуженные тесты типа 3DMark и PCMark... Q4 - это уже несколько неактуально, ИМХО.

Думаю, что на утилитах и нужно остановиться. Если ставить реальные игры по несколько гигабайт, то тест будет золотой по времени его проведения.

Как? По Task Manager? Если да, то это не корректно. Что с того, что там будет скажем 90% занято каким-то процессом какого-то антивируса? Это не значит, что он сволочь такая сожрал и никому не дает работать. Это лишь значит, что система в данный конкретный момент времени решила, что ему можно выделить столько процессорного времени. Вытесняющая многозадочность... Тест бесполезный ибо даже вредный wink.gif

Если не по Task Manager, то какие есть варианты?

Опять же какой памяти? Виртуальной (включая свопинг)? Или память ядра, тогда ИМХО имеет смысл только non paged pool смотреть, ибо только он критичный - остальное все свопитсяи к продукту имеет опосредованное отношение, тут memory manager винды больше рояля играет.

Я предполагал замерять совокупное потребление памяти, включая свопинг. ИМХО если прога кладет много данных в своп, то моменты обращения к этим данным самым непосредственным образом влияют на производительность системы, поэтому и хотел измерять совокупное потребление памяти.

Если это некорректно, то давайте искать приемлемые варианты, как сделать лучше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Олег Гудилин
Что нужно конкретно описать в части тестового стенда? Кому из заинтересованных лиц надо это разжёвывать? Необходимый минимум я указал - будем смотреть XP и Vista.

Разжевать в частности нужно мне.

Как будет организован тестовый стенд, на каких машинах, как будет организован откат к предыдущему состоянию, как конкретно будет происходить замер сетвого копирования и т.д. и т.п. Чем будут создаваться образы системы для отката. Подобное описание есть необходимое условие для понимания того, насколько тест адекватен.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Сергей Ильин
1.Этот тест нельзя проводить на виртуальных машинах ибо они не могут имитировать производительность реальной системы и более того такое тестирование заведомо не может обеспечить одинаковые условия для всех тестируемых. Нужна реальная машина + Acronis для создания образов системы и возможности отката системы в исходное положение не только при переходе от продукта к продукту, но и между разными тестами одного и того же продукта.

Обоснуйте.

2 Необходимо для всех тестов делать несколько замеров и брать усредненные значения. Причем если вы собираетесь учитывать технологии оптимизации (а с тут будут проблемы), то несколько замеров как учитывающих технологи оптимазации, так и не учитывающих. Соответсвенно между одинаковыми замерами надо производить откат системы назад, а между "первопрогонным замером" и замером с учётом оптимизации нужно перезагружать системы дабы убрать функции оптимизации самой ОС.

Т.е. последовательность примерно такая: первопрогон, перзагрузка, второй прогон, откат системы, повтор цикла, повтор цикла...берем усредненные значения первого и второго прогонов.

Безусловно, будет несколько замеров, чтобы минимизировать попадание в результаты случайных значений. Технологии оптимизации типа iChecker не будут учитываться в результатах, мы лишь посмотрим их эффективность для спортивного интереса. Данные технологии спорные по своей природе, поэтому мы не будем их учитывать, чтобы не ставить под вопросы весь тест.

Откат либо перезагрузка машины должны в принципе проводиться между любыми двумя замерами. С рекомендациями MS по настройке тестовой ОС можно ознакомиться тут: http://www.microsoft.com/whdc/system/sysperf/default.mspx Надо отключать все скринсервер, хибернейт и поч и проч.

Не думаю, что рядовые пользователи антивирусов следуют этим рекомендациям Microsoft. Поэтому я принципиально не согласен что-либо отключить в настройках ОС по умолчанию.

Все задачи по расписанию в антивирусе должны быть естественно отключены, антивирус должен закончить все проверки, которые он выполняет при старте системы.

Уже согласился выше. Будем все выключать.

4.Тестовые операционные системы разумно брать XP 32bit SP3 и Vista 32bit SP1 со всеми рекомендованными обновлениями.

Именно эти ОС и будем брать со всеми актуальными обновлениями.

Специально подсовывать на тестирование определённые (например упакованные) файлы не имеет практического смысла – нужно тестировать на том, что обычно у пользователя есть на компьютере.

Не соглашусь. А каким образом тогда учитывать количество проверенных файлов? :) Антивирус А проверяет почти все файлы, а антивирус Б только определенный набор типов файлов. И как это сравнивать можно? ИМХО - бред.

Идея создания коллекции определенных видов файлов как раз для того, чтобы проверялись все файлы всеми антивирусами.

Каким образом, будет измеряться _мгновенное_ срабатывание монитора, скажем продукта A, и далеко

не мгновенное срабатывание продукта B ?

Поясните плиз, не понял вопроса.

Имеет ли смысл смотреть вообще потребляемые ресурсы сканером? В этом плане солидарен с Ашотом.

Такое исследование имело бы более интересные результаты для анализа производительности именно монитора.

может-как по мне-для заявленного исследования и вовсе не стоит проводить замеры загрузки проца и памяти? цифры времени куда убедительнее

Ресурсоемкость сканера интересно посмотреть факультативно, учитываться в результатах теста будет только ресурсоемкость антивирусного монитора.

Возможно, нужно вообще выбросить блок по замеру загрузки процессора и оперативки, если мы не придем здесь к приемлемому варианту методологии.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
EYE
Чегось? Вы предполагаете замеры будут на одном файле производиться? Не дай бог.

А с чего Вы взяли, что я предполагаю тестирование на одном файле?

Поясните плиз, не понял вопроса.

Наверное будет лучше, если я попробую прояснить для себя некоторые вопросы.

Хотелось бы лучше представлять методологию планируемого тестирования.

Если скорость работы монитора, планируется измерять при помощи-

Копирование тестовой коллекции файлов, измерение времени.

и речь идет о тестовой коллекции чистых файлов, то тогда вопросов не возникает,

просто копируются файлы и замеряется время копирования.

(Хотя не знаю, можно ли назвать такое измерение интересным?)

Если же идет речь о копировании malware, то это уже совсем другое,

и возникают дополнительные вопросы- например, какие экземпляры

будут использоваться (заведомо детектируемые всеми антивирусными продуктами,

участвующими в тестировании или какие-либо ещё?) и т.д.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Олег Гудилин
Цитата(Олег Гудилин @ 08.06.2008, 1:19)

1.Этот тест нельзя проводить на виртуальных машинах ибо они не могут имитировать производительность реальной системы и более того такое тестирование заведомо не может обеспечить одинаковые условия для всех тестируемых. Нужна реальная машина + Acronis для создания образов системы и возможности отката системы в исходное положение не только при переходе от продукта к продукту, но и между разными тестами одного и того же продукта.

Обоснуйте.

А чего тут обосновывать? Скорость работы и реально выделяемые вмварью виртуалке ресурсы процессора могут быть разными при каждом запуске вмвари. Вам никогда не приходилось сталкиваться с тем, что вдруг неожидано виртуалка с установленным продуктом начинала жутко подтормаживать? Ну если хотите я могу запросить более квалифицированное мнение нашего тестлабв. Но оно боюсь совпадет с

Однако процесс тестирования на виртуальных системах имеет некоторые ограничения: например, виртуальные системы не рекомендуется применять при тестировании производительности (Performance Testing), а также тестировании приложений, предъявляющих высокие требования к физическим ресурсам компьютера.
Безусловно, будет несколько замеров, чтобы минимизировать попадание в результаты случайных значений. Технологии оптимизации типа iChecker не будут учитываться в результатах, мы лишь посмотрим их эффективность для спортивного интереса. Данные технологии спорные по своей природе, поэтому мы не будем их учитывать, чтобы не ставить под вопросы весь тест.

Если вы не собираетесь их учитывать, тогда после каждого прогона нужно откатывать систему на исходную.

Простое отключение механизмов оптимизации не подходит. Кстати эти спорные механизмы использует даже "самый быстрый антивирус". И я еще может быть внесу предложения как можно правильно и честно протестировать скорость при повторных прогонах.

Не думаю, что рядовые пользователи антивирусов следуют этим рекомендациям Microsoft. Поэтому я принципиально не согласен что-либо отключить в настройках ОС по умолчанию.

Не забудьте тогда хоть Hibernation и Stand by по таймауту отключить, а то мешать будет. И между замерами откат на исходную, чтобы технологии оптимизации ОС не влияли на сходимость результатов замеров, также как не будут влиять технологии оптимизации антивирусов.

Не соглашусь. А каким образом тогда учитывать количество проверенных файлов? Антивирус А проверяет почти все файлы, а антивирус Б только определенный набор типов файлов. И как это сравнивать можно? ИМХО - бред.

Идея создания коллекции определенных видов файлов как раз для того, чтобы проверялись все файлы всеми антивирусами.

Имхо бред проводить синтетически тесты. Пользователь никогда не сканирует определенные типы файлов, он сканирует виндовые кталоги, программ файлз, папки с дистрибутивами, медиа и документами. Только такие смешанные коллекции могут дать представление о производительности на реальной системе. Вы же производительность тестируете, а не качество и глубину проверки, правильно? Вот и не мешайте все в кучу.

А потом если угодно вы производительность и качество детектирования, проверенное в других тестах, сведете в единую интегрированную оценку, которую портал так долго обсуждал.

Если не по Task Manager, то какие есть варианты?
Ресурсоемкость сканера интересно посмотреть факультативно, учитываться в результатах теста будет только ресурсоемкость антивирусного монитора.

Возможно, нужно вообще выбросить блок по замеру загрузки процессора и оперативки, если мы не придем здесь к приемлемому варианту методологии.

Гм, замеры можно проводить в рамках всех прогонов при помощи Process Explorer http://technet.microsoft.com/ru-ru/sysinte...653(en-us).aspx

и речь идет о тестовой коллекции чистых файлов, то тогда вопросов не возникает,

просто копируются файлы и замеряется время копирования.

(Хотя не знаю, можно ли назвать такое измерение интересным?)

Если же идет речь о копировании malware, то это уже совсем другое,

и возникают дополнительные вопросы- например, какие экземпляры

будут использоваться (заведомо детектируемые всеми антивирусными продуктами,

участвующими в тестировании или какие-либо ещё?) и т.д.

Вот как раз копирование вирусов и нельзя назвать интересным и реально нужным для понимания уровня производительности антивируса. Обычный пользователь что - копирует большое кол-во вирусов туда сюда каждый день? Нет он копирует и удаляет чистые файлы и важно насколько антивирус затрудняет ему этот процесс.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Valery Ledovskoy
А чего тут обосновывать? Скорость работы и реально выделяемые вмварью виртуалке ресурсы процессора могут быть разными при каждом запуске вмвари. Вам никогда не приходилось сталкиваться с тем, что вдруг неожидано виртуалка с установленным продуктом начинала жутко подтормаживать?

Поддерживаю. Такие тесты проводить на виртуалке никак нельзя. Потеря в точности измерений будет существенная. Железо виртуалится не всегда адекватно. На виртуальную систему будут влиять настройки/процессы, происходящие в основной системе (тот же антивирус, установленный в основной системе может при различных прогонах теста в виртуальной системе сбивать результаты в ту или иную сторону).

Почитайте софтварные тесты железа на "железных" сайтах типа http://ferra.ru или http://3dnews.ru . Нигде виртуалка не используется. А данный тест очень зависит именно от характеристик железа. Повторюсь, динамика распределения ресурсов ВМВарей во времени может сильно влиять на результат.

А в чём принципиальная проблема выделить два стендовых компьютера для проведения теста? Можно даже с разным железом. Для WinXP попроще, чем для WinVista.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Иван
А в чём принципиальная проблема выделить два стендовых компьютера для проведения теста? Можно даже с разным железом. Для WinXP попроще, чем для WinVista.

+1

+ нужен Acronis или какая-то альтернатива для сохранения образов конфигураций

+ есть у кого идеи какие бенчмарки могут быть дополнительно использованы в таких тестах? Sysmark?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
alexgr

нужен Acronis. Восттанавливаем конфигурацию после каждого парциального теста АВ. Кофнфигурация - стандартна - допустим - ОС, офисные приложения - скажем 2003 офис или ХР, архиватор Winrar 3.0, набор файлов - офисных - 1М, 5М, 10 М, архивы - 1М,5М, 10М, самораспаковывающиеся архивы - 1 и 5 М, самораспаковывающиеся архивы - инсталляторы. Стандартный инсталляционный диск - оговариваем. Замер времени - согласен с Гудилиным - отдельная утилита, а не секундомер. По крайности - пишем батник для использования переменной Time (хотя мне и не нравится). Прогонов - 5. Результат - усредняем по принципу анализа точки сходимости - с отбрасываением большего и наименьшего результата. Никаких виртуалок. Анализ задержек при запусках. Сканер - по инсталлятору и самораспаковывающему архиву - инсталлятору. Все настройки документируем отдельно - как описаны вендором. Примерно так - так я делал тесты, начиная с тестов на тендере в банке. Правда, я еще запихивал на разные уровни архива eicar, но в данном случае это неактуально

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Иван

alexgr, вот вам бы этот тест и провести.

нужен человек, который не раз профессионально тестировал производительность, а не тот кто делает это первый раз

лучше даже профессиональный тестер, но вашего опыта есть подозрение тоже будет предостаточно

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

  • Сообщения

    • Ego Dekker
      Домашние антивирусы для Windows были обновлены до версии 19.0.14.
    • PR55.RP55
      Microsoft ускоряет Проводник в Windows 11 с помощью предзагрузки https://www.comss.ru/page.php?id=18618
    • AM_Bot
      Вендор Crosstech Solutions Group выпустил решение для защиты контейнерной инфраструктуры Crosstech Container Security (CTCS). Оно обеспечивает безопасность контейнерных сред: от сканирования образов до контроля запуска рабочих нагрузок и реагирования на инциденты в средах выполнения.      ВведениеФункциональные возможности Crosstech Container Security2.1. Анализ и контроль безопасности образов2.2. Контроль запуска контейнеров2.3. Безопасность в средах выполнения (Runtime Security)2.4. Безопасность окружения2.5. Внешние интеграцииАрхитектура Crosstech Container Security3.1. Основные компоненты Crosstech Container SecurityСистемные требования и лицензирование Crosstech Container Security4.1. Лицензирование4.2. Требования к аппаратной части4.3. Требования к программной части4.4. Процесс установкиСценарии использования5.1. Сценарий №1. Сканирование образов5.2. Сценарий №2. Политики безопасности образов контейнеров5.3. Сценарий №3. Контроль запуска контейнеров5.4. Сценарий №4. Мониторинг безопасности сред выполненияВыводыВведениеРоссийский рынок контейнерных разработок постоянно растёт. В 2024 году затраты на ПО для контейнеризации достигли 3 млрд рублей — это на 66 % больше, чем в 2023. Контейнерные технологии ускоряют процессы разработки, экономят ресурсы компаний, поэтому их всё чаще внедряют в свою работу ИТ-департаменты.Вместе с ростом масштабов контейнеризации увеличивается и поверхность атак: уязвимости в образах, ошибки конфигураций, несанкционированные действия внутри контейнеров. Crosstech Container Security помогает компаниям выстраивать комплексную систему защиты контейнерной инфраструктуры.Функциональные возможности Crosstech Container SecurityCrosstech Container Security объединяет функции анализа, мониторинга и управления безопасностью контейнерных сред. Решение охватывает весь жизненный цикл контейнера — от момента его создания до удаления. Продукт помогает DevSecOps-командам выявлять уязвимости, проверять конфигурации, контролировать сетевую активность и реагировать на инциденты в режиме реального времени.Анализ и контроль безопасности образовCrosstech Container Security интегрируется с реестрами хранения образов и позволяет проводить их сканирование как в ручном режиме, так и по расписанию. В результате анализа система обнаруживает дефекты в образах: уязвимости, неправильные конфигурации, секреты, а также фиксирует используемые в образах OSS-лицензии для пакетов и библиотек. По каждому найденному дефекту предоставляется детальная информация.CTCS поддерживает экспорт SBOM в форматах SPDX и CycloneDx, что упрощает аудит и обмен данными с другими решениями. Интерфейс продукта предоставляет визуализацию образов с маппингом (сопоставлением данных) на дефекты безопасности. CTCS также осуществляет дискаверинг (обнаружение) образов, располагающихся в защищаемых кластерах и на standalone-хостах.Для автоматизации контроля доступны настраиваемые политики безопасности образов, разделяемые по критериям:наличие уязвимостей в образах контейнеров выше заданной оценки критичности;наличие уязвимостей в образах контейнеров согласно заданным идентификаторам;обнаружение root в Dockerfile;возможность указания перечня образов, на которые будет распространяться созданная политика безопасности образов.При нарушении хотя бы одного из критериев политики администратор получает уведомление в интерфейсе CTCS и может оперативно принять меры: заблокировать образ, исключить его из деплоя или добавить в список исключений с указанием причины. Такой подход обеспечивает прозрачность процессов и повышает уровень доверия к среде разработки и эксплуатации.Контроль запуска контейнеровРешение обеспечивает контроль запуска контейнеров как в средах Kubernetes, так и на отдельных standalone-хостах в соответствии с заданными политиками безопасности. Это позволяет предотвращать запуск рабочих нагрузок, не соответствующих требованиям безопасности компании, ещё на этапе их инициализации.В зависимости от настроек администратор может выбрать режим реагирования: блокирование или оповещение о нарушении политики безопасности. Информация обо всех срабатываниях отображается в интерфейсе системы, обеспечивая прозрачность и возможность оперативного реагирования.Политики безопасности включают следующие критерии:попытка запуска контейнеров на базе образов, не соответствующих политикам безопасности;попытка запуска контейнеров из-под пользователя root;попытка запуска контейнеров с повышенными привилегиями ядра Linux;контроль запуска контейнеров на базе образов, не прошедших сканирование CTCS.Дополнительно решение поддерживает интеграцию с OPA Gatekeeper и имеет возможность создания и импорта политик через интерфейс CTCS.Безопасность в средах выполнения (Runtime Security)CTCS использует возможности инструмента Tetragon для создания и применения кастомных политик безопасности, позволяющих контролировать сетевые взаимодействия внутри контейнеров. Администраторы могут выбрать набор кластеров для распространения политик, что обеспечивает гибкость при внедрении требований безопасности.Вся информация о срабатываниях политик фиксируется в интерфейсе CTCS, предоставляя специалистам по информационной безопасности прозрачную картину активности в средах выполнения и возможность оперативного реагирования на инциденты.Безопасность окруженияРешение выполняет сканирование кластеров на соответствие стандартам конфигурирования CIS Kubernetes Benchmarks. Аналогично система проводит проверку standalone-хостов на соответствие CIS Docker Benchmarks. Дополнительно CTCS поддерживает сканирование конфигурационных файлов, расположенных в директориях нод кластеров, выполняя роль сканера на основе IaC (Infrastructure as Code, управление инфраструктурой через использование кода).Внешние интеграцииРешение поддерживает интеграцию с реестрами хранения образов, что обеспечивает доступ к актуальным данным для анализа и контроля безопасности контейнеров. Также CTCS поддерживает передачу журналов событий в системы сбора по протоколу Syslog для их централизованного хранения и обработки.Доступна интеграция с системой идентификации, управления доступом Keycloak с поддержкой OAuth и доменными службами каталогов. Это позволяет пользователям авторизовываться в интерфейсе системы через доменные учётные записи. Рисунок 1. Планы по развитию Crosstech Container Security Архитектура Crosstech Container SecurityАрхитектура CTCS реализована в формате однонаправленных соединений со стороны ядра системы в сторону агентов защиты (протокол TCP/IP), располагающихся в защищаемых кластерах. Такой подход позволяет использовать инстанс ядра в единственном экземпляре для инфраструктур, сегментированных по уровням доверия. Рисунок 2. Логическая архитектура Crosstech Container Security Основные компоненты Crosstech Container SecurityCTCS состоит из 3 основных компонентов:CTCS Core — группа микросервисов, отвечающая за управление системой: хранение данных, настроек, создание политик безопасности, бизнес-логика продукта, а также взаимодействие со смежными системами.CTCS Agent-Manager: модуль агент-менеджера реализован в формате оператора Kubernetes с целью контроля за установкой и изменениями кастомных ресурсов (custom resource definition, CRD), а также управления и передачи информации агент-воркерам, устанавливаемым на каждую защищаемую ноду в формате DaemonSet.CTCS Scanner — модуль, сканирующий образы контейнеров на уязвимости, неправильные конфигурации, конфиденциальные данные, информацию по OSS-лицензиям для пакетов и библиотек из состава образа, а также сканирующий кластеры на соответствие стандартам конфигурирования.Системные требования и лицензирование Crosstech Container SecurityПеред выбором модели лицензирования заказчикам рекомендуется оценить масштаб защищаемой инфраструктуры и нагрузку на кластеры. Crosstech Container Security предусматривает гибкий подход: ядро и агенты могут разворачиваться в разных сегментах сети, включая тестовые и продуктивные среды. Такой принцип позволяет оптимально распределять ресурсы и лицензии, избегая избыточных затрат.ЛицензированиеCTCS лицензируется по количеству защищаемых нод, на которые распространяются агенты защиты.В продукте реализовано гибкое лицензирование, которое позволяет заказчикам самостоятельно выбирать перечень защищаемых объектов. При достижении лимита по количеству лицензий, предусмотренных договором, администратор может отключить часть текущих объектов защиты и переназначить лицензии на новые кластеры и ноды. Рисунок 3. Включение/выключение агентов защиты Рисунок 4. Лицензии CTCS На странице лицензирования доступна подробная информация о параметрах действующей лицензии. Пользователь видит:количество оставшихся дней действия лицензии;количество нод, предусмотренных лицензией;актуальные данные о числе используемых нод в рамках лицензии;сведения о типе лицензии;информация о поставщике;информация о владельце лицензии.Рисунок 5. Страница «Лицензирование» Требования к аппаратной частиКластер, на котором производится установка CTCS, должен соответствовать минимальным характеристикам, приведённым ниже. Для определения значений millicpu (единицы времени процессора, эквивалентной тысячной части работы, которую может выполнить одно ядро CPU) рекомендуется воспользоваться документацией Kubernetes.Кластер, на который будет установлен helm-чарт ядра (без учёта сканера) должен иметь характеристики не ниже 8190 millicpu, 7410 MiB RAM.Для каждого экземпляра сканера: 3 CPU, 6 GB RAM, при добавлении дополнительных экземпляров значения увеличиваются пропорционально.В случае использования большего количества реплик значения пропорционально умножаются на их число. По умолчанию в чарте допускается до 6 реплик, что требует 18 CPU, 36 GB RAM.Каждый кластер для развёртывания чарт-агента должен иметь 2 CPU, 8 GB RAM.Необходимый минимум для каждой используемой СУБД PostgreSQL: 4 CPU, 8 GB RAM, 100 GB.Приведённые требования указаны для усреднённой конфигурации и могут быть изменены в зависимости от количества одновременных сканирований образов, генерируемых событий, деплоев, пространств имён (namespaces) и подов.Требования к программной частиДля корректной интеграции и работы приложение CTCS должно быть развёрнуто в кластере Kubernetes. При настройке системы в конфигурационном файле helm-чарта должны быть настроены необходимые параметры.Поддерживаемые контейнерные среды CRI (container runtime interface): containerd и docker.В момент выполнения инструкции на хосте администратора должны быть установлены следующие утилиты для выполнения установки:tar;helm;kubectl.Необходимые сервисы в инфраструктуре:PostgreSQL: рекомендуется размещать базу данных для хранения логов на отдельном инстансе от основной БД, чтобы избежать падения производительности основных операций при большом объёме логируемых событий;Keycloak (опционально, имеется возможность поставки в составе дистрибутива);Vault (опционально, имеется возможность использования стандартного объекта Kubernetes Secret).Требования к операционной системе и ядру:рекомендуется использовать ОС с версией ядра 5.4 или выше для обеспечения поддержки Tetragon;в ядре должна быть включена функция BTF;должны быть активированы модули eBPF и cgroup, а также корректным образом настроены или отключены модули безопасности Linux (LSM), контролирующие запуск eBPF-программ (в соответствии с официальной документацией Tetragon).Требования к версиям Kubernetes:центральная управляющая часть кластера – не ниже версии 1.23;дочерние кластеры – версия 1.23 или выше.Дополнительные требования:В кластере Kubernetes должен быть установлен, подключён и настроен storage class, в котором будет минимум 10 GB свободного места.В master-кластер должен быть установлен External Secrets (опционально).В дочерние кластеры должен быть установлен External Secrets (опционально).Во всех кластерах, где развёртывается ядро и агенты CTCS, должен быть установлен ingress-контроллер.Совокупность этих требований обеспечивает стабильную работу системы и корректное взаимодействие всех модулей CTCS. При соблюдении указанных параметров производительность решения остаётся предсказуемой даже при высокой интенсивности сканирований и большом количестве событий безопасности. Такой подход гарантирует надёжность, масштабируемость и устойчивость контейнерной инфраструктуры.Процесс установкиДля развёртывания CTCS вендор предоставляет архив, содержащий helm-чарты и образы системных контейнеров. При необходимости может быть предоставлена учётная запись для выгрузки дистрибутивов из репозиториев вендора напрямую.Сценарии использованияCrosstech Container Security закрывает ключевые задачи обеспечения безопасности контейнерных платформ — от анализа уязвимостей до защиты на уровне среды выполнения. Решение органично интегрируется в процессы DevSecOps и помогает компаниям повысить устойчивость инфраструктуры к современным киберугрозам без потери скорости разработки.Сценарий №1. Сканирование образовCTCS позволяет выполнять сканирование образов контейнеров, хранящихся как в интегрированных реестрах образов, так и локально в защищаемых кластерах. Рисунок 6. Подключённые реестры После интеграции с реестрами образов на вкладке «Образы» – «Реестры» отображается подключённый реестр и информация о хранящихся в нём образах. Реализовано в формате иерархии:Реестры.Название образа и количество его версий (тегов).Название образа и его версии.Карточка конкретного образа.Рисунок 7. Образ и список его версий Рисунок 8. Карточка образа На каждом уровне иерархии есть возможность запуска сканирования по требованию с выбором типа дефектов, которые будут учитываться в процессе сканирования. Дополнительно предоставляется общая информация об образе, данные о его соответствии установленным политикам, сведения о слоях образов с маппингом на обнаруженные дефекты. Рисунок 9. Слои образа На странице интеграций с реестрами в настройках доступно выставление расписания для проведения автоматизированного сканирования. Рисунок 10. Сканирование по расписанию Для работы с образами, обнаруженными локально в защищаемых кластерах, доступна отдельная вкладка «Образы» – «Локальные образы». Рисунок 11. Таблица локальных образов При запуске процесса сканирования доступен выбор ноды, на которой он будет проводиться. Если обнаруженный образ находится в интегрированном реестре, сканирование будет приоритетно выполняться на стороне ядра системы в рамках интеграции с реестром. Рисунок 12. Выбор нода для проведения сканирования Сценарий №2. Политики безопасности образов контейнеровВ рамках Crosstech Container Security реализовано создание политик безопасности для образов контейнеров. После их настройки система автоматически проверяет все известные образы на соответствие заданным критериям. По результатам проверки на карточке каждого образа отображается информация о соответствии или несоответствии политикам безопасности (Рисунок 7). Если образ нарушает несколько политик безопасности одновременно, в карточке отображается, какие именно политики безопасности были нарушены. Рисунок 13. Создание политики безопасности образов Сценарий №3. Контроль запуска контейнеровВ CTCS доступна интеграция с OPA Gatekeeper, обеспечивающая валидацию контейнерных деплоев и реагирование в соответствии с заданными политиками безопасности.При настройке политик безопасности доступен выбор режима реагирования — оповещение либо блокировка — а также определение перечня критериев безопасности, по которым будет осуществляться контроль. Рисунок 14. Таблица политик валидации и контроля запусков Политики безопасности могут создаваться по выделенным критериям (Рисунок 13) или импортироваться в виде кастомных политик (Рисунок 14). Рисунок 15. Создание политики валидации и контроля запусков Рисунок 16. Импорт кастомных политик безопасности Результаты срабатывания политик доступны в интерфейсе системы, что позволяет оперативно анализировать инциденты и корректировать настройки безопасности. Рисунок 17. Срабатывание политик валидации и контроля запусков Сценарий №4. Мониторинг безопасности сред выполненияВ текущей версии реализован мониторинг безопасности сред выполнения на базе Tetragon, что позволяет контролировать эксплуатацию рабочих нагрузок.В CTCS доступна форма для создания или импорта готовых политик безопасности с возможностью выбора области применения. Рисунок 18. Создание политики среды выполнения При срабатывании политик система отображает перечень событий в формате таблицы. Для каждого события можно перейти в режим детального просмотра, где отображается его идентификатор, дата и время создания, короткое описание и содержание в формате json. Рисунок 19. Событие срабатывания политики среды выполнения ВыводыАнализ решения Crosstech Container Security показал, что в версии 3.0.0 продукт предоставляет широкие функциональные возможности для защиты контейнерной инфраструктуры: от обеспечения безопасности образов контейнеров до контроля запуска и реагирования на нелегитимные процессы в средах выполнения в соответствии с политиками безопасности. CTCS также предоставляет инструменты для проведения сканирований защищаемых кластеров на соответствие стандартам конфигурирования, что повышает уровень безопасности контейнерной инфраструктуры.Достоинства:Архитектура. Благодаря однонаправленным соединениям со стороны ядра системы в сторону агентов защиты обеспечивается соответствие требованиям заказчиков, которые используют «Zero Trust»-модель на уровне сегментов инфраструктуры.Широкая площадь покрытия. CTCS обеспечивает контроль запуска контейнеров не только в рамках оркестратора Kubernetes, но и на отдельных хостах контейнеризации за счёт использования standalone-агентов.Гибкие возможности при работе с API. Весь функционал из веб-интерфейса CTCS также доступен для вызова через API, что позволяет специалистам заказчика решать нетривиальные задачи в рамках своей рабочей деятельности и интегрировать продукт в существующие процессы.Удобство при работе со сканированием образов. Иерархический подход обеспечивает гибкость при выборе области сканирования и повышает прозрачность анализа.Недостатки:Отсутствие возможности встраивания в процесс сборки (CI/CD) (планируется к реализации в первом квартале 2026 года).Отсутствие данных по ресурсам Kubernetes (Workloads, RBAC, Custom Resources, Feature Gates): планируется в 4-м квартале 2025 – 1-м квартале 2026).Отсутствие настройки гибкого разграничения прав доступа пользователей в интерфейс системы (реализация запланирована на первый квартал 2026).Отсутствие отчётности по результатам работы с системой (планируется в первом квартале 2026).Реклама, 18+. ООО «Кросстех Солюшнс Групп» ИНН 7722687219ERID: 2VfnxvVGwXfЧитать далее
    • demkd
    • PR55.RP55
      И ещё это: https://www.comss.ru/page.php?id=18330 Это и на работе Образов с Live CD может сказаться ?
×