Яндекс запустил собственную антивирусную технологию, основанную на поведенческом анализе

Яндекс запустил собственную антивирусную технологию, основанную на поведенческом анализе

Яндекс запустил собственную антивирусную технологию, основанную на поведенческом анализе. Она умеет обнаруживать сайты с самыми новыми вирусами и предупреждать об опасности пользователей поиска. Впервые Яндекс начал проверять веб-страницы в мае 2009 года — с помощью антивируса компании Sophos(R). Каждый день предупреждение о вирусах появляется в результатах поиска Яндекса около 3 миллионов раз. Всего Яндексу известно около 400 тысяч заражённых страниц.

Антивирусный комплекс Яндекса отличается от уже используемой технологии компании Sophos и построен на поведенческом подходе. Имитируя поведение пользователя, антивирус заходит на сайт и анализирует, что происходит в системе. Если без каких-либо дополнительных действий со стороны пользователя начинает скачиваться или исполняться какая-то программа, скорее всего, страница заражена. Такой метод позволяет обнаруживать вирусы, еще не попавшие в антивирусные базы. Только за 5 дней работы нового антивируса в тестовом режиме количество обнаруженных заражённых сайтов увеличилось на 9%. Благодаря различию в технологиях, антивирусы Яндекса и Sophos находят разные вирусы — пересечение составляет около 34%. Обе технологии работают параллельно, обеспечивая пользователям более надёжную защиту.

«Наша технология позволяет обнаруживать новые, только появившиеся в интернете вредоносные программы и вовремя предупреждать пользователей об опасных сайтах, — говорит руководитель проекта Сергей Певцов. — Кроме того, мы готовы делиться информацией с антивирусными компаниями, чтобы они могли вносить новые вирусы в свои базы».

Веб-мастера могут следить за состоянием своих сайтов с помощью сервиса Яндекс.Вебмастер . В случае обнаружения на сайте зараженных страниц Яндекс пришлёт уведомление, чтобы веб-мастер мог найти и удалить вредоносный код.

Источник

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru