Разработчики Apache работают над исправлением для опасной уязвимости

Разработчики Apache работают над исправлением для опасной уязвимости

Данный изъян позволяет потенциальному злоумышленнику организовать отказ в обслуживании при помощи одного-единственного персонального компьютера. За свою высокую эффективность атакующий код, опубликованный в прошлую пятницу, уже успел получить прозвище "убийца Apache"; неудивительно, что создатели известного серверного решения стремятся как можно быстрее найти "лекарство".


Уязвимости подвержены выпуски Apache с кодовыми номерами 1.3 и 2. Эксплуатация изъяна довольно незамысловата: злоумышленник посылает серверу многочисленные GET-запросы, в которых содержатся перекрывающиеся диапазоны байтов. Из-за ошибок в их обработке  процессы Apache начинают потреблять все больше и больше памяти, пока она в конце концов не заканчивается. Естественно, что операционная система сервера в таких условиях нормально работать не может.

Механизм диапазонной загрузки - одна из функций Apache, которая позволяет веб-клиентам забирать не весь HTTP-документ, а лишь отдельные его фрагменты (которые, собственно, и описываются вышеупомянутым диапазоном байтов). Нагрузив заголовки HTTP множеством запросов на такие байтовые отрезки, нападающий может вызывать сбои в работе системы. Разработчики Apache в среду утром пообещали, что патч, препятствующий подобной деятельности злоумышленников, появится до конца текущей недели. В особом рекомендательном бюллетене создатели продукта описали ряд временных мер, которые администраторы могут принять до момента публикации "заплатки".

Необходимо заметить, что данная уязвимость была обнаружена очень давно - еще в 2007 году. О потенциальной подверженности Apache и Microsoft IIS отказам в обслуживании заявил тогда исследователь Михал Залевский, который назвал реализацию обработки байтовых диапазонов в этих продуктах "странной". Однако тогда разработчики Apache на его сообщение никак не отреагировали; сам специалист полагает, что своеобразное "расслабляющее" воздействие на создателей серверного решения оказало отсутствие работающего эксплойта (который г-н Залевский тогда так и не изготовил). Что ж - теперь атакующий код есть, а программисты спешат за 96 часов выполнить работу, на которую у них было четыре с половиной года.

Напомним, что Apache уверенно удерживает лидерство в секторе программного обеспечения для веб-серверов: под его управлением работает 235 млн. сайтов (примерно 66% от общего количества ресурсов всемирной Сети). Его ближайший преследователь - IIS - обеспечивает работу более чем 60 млн. узлов (17%).

The Register

Письмо автору

" />

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru