STAMINA — новый метод детектирования вредоносов от Microsoft и Intel

STAMINA — новый метод детектирования вредоносов от Microsoft и Intel

STAMINA — новый метод детектирования вредоносов от Microsoft и Intel

Специалисты двух техногигантов Microsoft и Intel разработали новый подход к детектированию вредоносных программ. Ключевыми особенностями этого подхода стали глубокое обучение и представление вредоносов в виде графических изображений.

Технология Microsoft и Intel получила имя «STAtic Malware-as-Image Network Analysis» (коротко — STAMINA), в её основе лежит предыдущая работа Intel по классификации вредоносных программ.

Специалисты разработали STAMINA вокруг исследования бинарных файлов зловредов, представленных в виде изображения в градациях серого. В процессе эксперты выяснили, что между таким изображениями вредоносных программ одного семейства есть определённое структурное сходство.

По аналогии: существуют такие же различия между вредоносами разных семейств, а также, что немаловажно, между злонамеренными и безобидными программами.

В посвящённой STAMINA статье специалисты утверждают, что классический метод детектирования вредоносов с помощью сигнатур со временем затрудняется непрерывным увеличением количества образцов вредоносного кода.

STAMINA включает четыре шага: предварительная обработка (конвертация изображения), обучение (transfer learning), оценка и интерпретация.

Первый шаг подразумевает преобразование пикселей (каждый байт получает значение между 0 и 255), создание новой формы (пиксели получают два основных значения — ширина и высота) и изменение размера.

Далее в дело вступает машинное обучение, призванное подготовить классификатор вредоносных программ для выполнения выделенных ему функций.

Предпоследний шаг (оценка) требует от исследователей пристального внимания к надёжности метода: процент ложных срабатываний, точность детектирования, F-мера и т. п. По словам специалистов, исследование проводилось на базе Microsoft, содержащей 2,2 млн хешей бинарников вредоносных программ.

Тестирование показало, что STAMINA может обеспечить 99,09% точных детектов. Ложных срабатываний при этом получилось 2,58%. Следует отметить, что новый способ подходит только для приложений малого размера, поскольку STAMINA с трудом сможет конвертировать «миллионы пикселей в JPEG-изображения».

Google упростила удаление личных данных и интимных фото из поиска

В интернете всегда найдётся кто-то, кто хочет узнать о вас больше, чем следовало бы. К счастью, у Google есть инструменты, которые помогают убрать лишнее из поисковой выдачи. Компания обновила сервис Results About You, который ищет и помогает удалить из выдачи страницы с вашими персональными данными.

Теперь инструмент умеет находить не только адреса и телефоны, но и номера документов, включая паспорт, водительские права и даже номер социального страхования (для США).

Чтобы система знала, что искать, пользователю нужно заранее добавить часть этих данных в настройках. Для водительских прав требуется полный номер, а для паспорта или SSN — только последние четыре цифры. После этого Google будет периодически сканировать выдачу и присылать уведомления, если найдёт совпадения.

Важно понимать: контент не исчезает из Сети полностью, но перестаёт отображаться в поиске Google, что для большинства пользователей уже существенно снижает риски.

Обновление коснулось и инструмента для удаления интимных изображений, опубликованных без согласия человека. Речь идёт как о реальных фото, так и о дипфейках и других сгенерированных ИИ материалах.

Теперь пожаловаться на такие изображения стало проще: достаточно нажать на три точки рядом с картинкой в поиске, выбрать «Удалить результат» и указать, что это интимное изображение. Google уточнит, настоящее это фото или дипфейк, а затем запустит проверку.

Кроме того, теперь можно добавлять сразу несколько изображений в одну заявку, что особенно актуально в эпоху, когда генеративный ИИ позволяют создавать подобный контент буквально за минуты.

Google также добавила возможность мониторинга: если функция включена, система будет автоматически отслеживать появление новых подобных изображений и предупреждать пользователя.

Поиск по ID уже доступен в Results About You. Обновлённый инструмент для удаления интимного контента начнёт появляться в ближайшие дни и будет постепенно распространяться на разные страны.

RSS: Новости на портале Anti-Malware.ru