Gartner: 60% виртуальных серверов защищены хуже, чем физические

Gartner: 60% виртуальных серверов защищены хуже, чем физические

...

Исследование компании Gartner показало, что около 60% виртуальных серверов защищены существенно хуже, чем физические серверы. Gartner отмечает, что чаще всего пользователи заменяют физические серверы виртуальными и это идет в ущерб безопасности ИТ-системы. Хуже того, аналитики говорят, что на рынке пока нет по-настоящему комплексных и надежных средств для защиты виртуальных серверов и появятся они лишь к 2012 году.

Согласно данным прогноза Gartner, в 2015 году лишь 30% виртуальных сервизов будут менее защищены, чем физические.

"Сама по себе виртуализация не наносит ущерба безопасности, но многие проекты по развертыванию виртуальных систем проводятся без необходимого аудита безопасности и некоторые проблемы в случае работы виртуальных систем носят фундаментальный или архитектурный характер. Чем больше ИТ-систем мы переносим, тем больше различных уровней безопасности надо было бы учитывать, но этого не делается. Особенно это важно, когда виртуализуются какие-то критически важные инфраструктурные проекты", - говорится в данных Gartner.

В компании идентифицировали шесть наиболее типичных проблем, связанных с виртуализацией. Во-первых, почти 40% проектов делаются без привлечения специалистов по информационной безопасности на начальных стадиях. "Как правило, большинство компаний просто говорят, что ничего не изменилось, у них уже есть достаточно защищенные решения. Но этот аргумент не учитывает наличие дополнительного критического важного слоя - гипервизора в котором работает система виртуализации", - говорят в Gartner.

Во-вторых, уязвимость, связанная с одной виртуальной платформой или виртуализатором, автоматически ставит под угрозу все остальные операционные системы на данном сервере. "Гипервизор - это новая платформа, которая может содержать еще не обнаруженные уязвимости", - говорится в отчете.

В-третьих, следует озаботиться проблемой обеспечения безопасности загрузки самого гипервизора и сделать такие условия работы системы, чтобы свести вероятность несанкционированных изменений в гипервизоре минимальной. Кроме того, дополнительные риск несут в себе устройства, обеспечивающие сетевую безопасность, так как большая часть этих устройств пока еще не предназначена для работы в виртуализованных средах.

Также компания отмечает, что если в физических системах есть четкое разграничение обязянностей администраторов, но в вирутализованных системах, где виртуальные образы данных и операционных систем мигрируют с одной физической машины на другую, создать разграниченную систему привилегий куда сложнее.

Источник 

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru