Лаборатория Касперского патентует передовую технологию сравнения файлов

Лаборатория Касперского патентует передовую технологию сравнения файлов

«Лабораторией Касперского» получен патент на эффективный метод точного сравнения элементов программного обеспечения. Патент №8499167, выданный Бюро по регистрации патентов и торговых марок США, описывает технику сравнения файлов для выявления вредоносных объектов, модифицированных злоумышленниками с целью затруднить обнаружение защитными программами.

На фоне стремительного роста числа вредоносных программ критически важным фактором становится способность антивирусных компаний быстро и качественно выявлять новые угрозы. Классический метод сравнения неизвестных файлов с коллекцией вредоносных объектов позволяет блокировать огромное количество зловредов, появляющихся каждый день. Однако сам механизм сравнения не идеален. Злоумышленники без особого труда нивелируют эффективность подхода, «засоряя» тело файла различными данными, что меняет его структуру и делает непохожим ни на один из коллекции вредоносных объектов.

Специалисты «Лаборатории Касперского» учли эти особенности, разрабатывая новую технологию сравнения файлов. В основе запатентованной технологии лежит идея о том, что функционал файла можно определить по его содержимому, не запуская сам файл. Строки байт-кода файла содержат информацию о выполнении файла в рамках операционной системы (имена файлов, ключи реестра, интернет-ссылки), что представляет своеобразный «конспект» файла.  Ранее практическая реализация этой идеи сталкивалась с трудностями: какие именно строки файла сравнивать, какие из них сигнализируют о вредоносном функционале объекта и как осуществить поиск за разумное время с минимальными затратами ресурсов.

Запатентованная технология «Лаборатории Касперского» описывает алгоритм автоматического сравнения файлов по строкам для определения схожести их функционала. Содержимое каждого нового файла автоматически анализируется – благодаря набору правил отсеиваются нерелевантные строки, а оставшиеся, дающие понимание о функциональных возможностях, сравниваются с коллекцией вредоносных объектов, проанализированных по такому же принципу. Важным свойством технологии является высокая скорость сравнения «конспекта» файлов с огромной базой вредоносного ПО.

«Практика показывает, что эффективность защитных решений определяется не только способностью распознавать вредоносные объекты, но еще и скоростью работы, минимальным количеством затраченных для этого ресурсов. Совместить оба качества – это вызов для разработчиков, и мы смогли достичь высокого результата. Полученный патент – лучшее тому доказательство», – прокомментировал Алексей Маланов, антивирусный эксперт «Лаборатории Касперского», разработчик запатентованной технологии.

Несмотря на то, что патент получен лишь недавно, эксперты «Лаборатории Касперского» уже продолжительное время применяют технологию для составления образцов новых вредоносных программ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru