Роскачество представило сомнительный рейтинг лучших антивирусов

Роскачество представило сомнительный рейтинг лучших антивирусов

Роскачество представило сомнительный рейтинг лучших антивирусов

Роскачество выделило пять лучших антивирусов для операционных систем Windows и macOS, опираясь на результаты своего исследования. Также в этом исследовании принимала участие Международная ассамблея организаций потребительских испытаний.

Список наилучших (по мнению Роскачества) антивирусных продуктов опубликовал РБК до официального релиза. Судя по всему, как и в прошлом году, первое место досталось антивирусу от Bitdefender. Удивительно, но в пятерке лучших программ для защиты Windows не нашлось места для Internet Security от «Лаборатории Касперского».

Вот так выглядит составленный исследователями топ-5:

  1. Internet Security (Bitdefender),
  2. Internet Security (ESET),
  3. Antivirus Free Edition (Bitdefender),
  4. Security Deluxe (Norton),
  5. Free Antivirus (Avast).

Примечательно, что в прошлом году Kaspersky Internet Security занял второе место среди лучших антивирусов для защиты операционной системы от Microsoft.

Для macOS список выглядит более адекватным:

  1. Cyber Security Pro (ESET),
  2. Internet Security (Kaspersky),
  3. Antivirus for Mac (Bitdefender),
  4. Antivirus for Mac OS (G Data),
  5. Security Deluxe (Norton).

Представители «Лаборатории Касперского» выразили сомнения относительно методов проведения исследования Роскачества. При этом сами исследователи отказались раскрыть подробную методику.

Пресс-служба «Лаборатории Касперского» прокомментировала ситуацию следующим образом:

«Нам не предоставили образцы вредоносных программ. На наш запрос был дан отказ, то есть нам не дали возможность убедиться в отсутствии ошибок в тесте. По сути, нам предлагается сценарий: “верьте нам, ваш продукт не идеальный, но доказательств мы не предоставим“».

«Эта практика идет вразрез с мировым опытом проведения публичных независимых тестов, когда после тестирования участникам даётся возможность проверить семплы и логи продукта и убедиться в отсутствии ошибок либо аргументированно указать на ошибки. Ошибки в тестировании нередки, “Лаборатория Касперского“ регулярно выявляет их в публичных тестах».

Эти ошибки можно разделить на следующие группы, и очевидно, чем больше их выявлено, тем более технически точные получаются результаты:

  • ошибки классификации, когда в тесте на защиту от зловредов используются файлы, не способные нанести вред системе или данным пользователя, например, чистые файлы, испорченные (не работающие в тесте либо не работающие в принципе), либо не работающие файлы без к-л дополнительных файлов и т.д.;
  • ошибки исполнения тестов, когда вредоносный семпл либо вообще не запускался (хотя по методологии должен), либо не имел возможность выполнить вредоносный код, который мог быть детектирован компонентой поведенческого детектирования. Неисключение таких неотработавших семплов эквивалентно тесту продукта с отключённой вручную компонентой поведенческого детектирования, что автоматически превращает тест совсем в другое испытание. Примеров можно привести много: зловред увидел работающий продукт и прекратил свою работу, зловред ожидал от пользователя введения данных (но данные не были введены тестером), семпл пробует подключиться к своему серверу управления (C2С) для получения зловредного кода либо команды, но последний недоступен;
  • ошибки интерпретации результатов, когда даже реально детектированная и удалённая продуктом угроза ошибочно записывается автоматикой тестовой лаборатории как пропуск;
  • ошибки конфигурации продукта, когда, например, продукт не обновляется, либо блокируется доступ в облако, либо отключаются какие-либо компоненты (включённые по умолчанию).

«Низкий результат защиты от программ-вымогателей и шифровальщиков выглядит крайне сомнительным, так как не совпадает c результатами тестирования продуктов «Лаборатории Касперского» в известных публичных тестовых лабораториях (AV-Test, AV-Comparatives, SE Labs, ICSA Labs, MRG Effitas, VirusBulletin), которые занимаются тестами антивирусных продуктов уже не один десяток лет».

«В дополнение к тому, что нам не предоставили тестовые файлы и логи продукта хотелось бы отметить следующее: не предоставлена методика выполнения различных сценариев тестов, поэтому нельзя оценить актуальность отдельных тестов реальным пользовательским сценариям».

Создатель Диспетчера задач объяснил, почему загрузка CPU в Windows врёт

Бывший инженер Microsoft Дэйв Пламмер, приложивший руку к таким знаковым вещам, как поддержка ZIP в Windows и меню «Пуск» в Windows NT, рассказал, как на самом деле Диспетчер задач считает загрузку процессора. И заодно объяснил, почему цифры в этом инструменте иногда кажутся немного странными, особенно если сравнивать их с тем, как компьютер ощущается в реальной работе.

По словам Пламмера, идея просто показать, насколько занят процессор на деле куда сложнее, чем кажется.

Вопросов тут сразу слишком много: занят чем именно, на одном ядре или на всех, прямо сейчас или в среднем за последние секунды, в пользовательском режиме или на уровне ядра? Как только начинаешь во всём этом разбираться, простая шкала загрузки уже перестаёт выглядеть такой уж простой.

Сам Диспетчер задач, как объяснил Пламмер, работает не в режиме мгновенного измерения. Он обновляет данные через определённые интервалы, то есть показывает скорее интерпретацию того, что происходило между обновлениями, а не живую картину в каждый конкретный момент. Поэтому цифры на экране — это всегда усреднённый результат, а не моментальный снимок состояния процессора.

Самым очевидным решением мог бы быть простой расчёт по времени между обновлениями интерфейса. Но Пламмер от такого подхода отказался: он посчитал, что полагаться на точность GUI-таймера — идея так себе. Он даже сравнил это с попыткой доверить точный ритм метронома, который едет в кузове пикапа по разбитой дороге.

Вместо этого он заложил в Диспетчер задач другой принцип. Утилита запрашивает, сколько процессорного времени каждый процесс суммарно использовал с момента запуска (отдельно в пользовательском и системном режимах).

Затем из нового значения вычитается предыдущее, полученное во время прошлого обновления. Так определяется, сколько CPU-времени процесс съел за конкретный промежуток. А дальше это сравнивается с общим объёмом процессорного времени, которое было израсходовано всеми процессами за тот же период.

Звучит не очень просто, но именно такой метод, по словам Пламмера, даёт более точный результат, чем грубый расчёт по таймеру. Проблема в другом: современные процессоры стали намного сложнее, чем во времена, когда создавался классический Диспетчер задач.

Сегодня на работу CPU влияют динамическое изменение частоты, турбобуст, тепловые ограничения, глубокие режимы простоя и другие механизмы. Из-за этого один и тот же процент загрузки уже не всегда означает один и тот же объём реально выполненной работы. Пламмер привёл образное сравнение: современная загрузка CPU больше похожа не на пройденное расстояние, а на загруженность шоссе. Полупустая трасса с быстрыми спорткарами может перевезти больше, чем полностью забитая дорога со старыми грузовиками.

Именно поэтому Диспетчер задач иногда может показывать вроде бы нестрашные цифры, хотя компьютер при этом ощутимо тормозит (или наоборот). Дело не обязательно в ошибке инструмента. Просто сам показатель загрузки процессора уже давно перестал быть идеальным универсальным маркером производительности.

RSS: Новости на портале Anti-Malware.ru