Сайт медиагиганта NBC взломан

Сайт медиагиганта NBC взломан

Крупнейшая в мире соцсеть Facebook блокировала размещение и переход пользователей по ссылкам на сайт медиакомпании NBC после сообщений о том, что NBC.com подвергся заражению компьютерным вирусом, сообщает агентство Рейтер.

Основной сайт NBC, а также ряд дочерних ресурсов медиакомпании подверглись хакерской атаке и заражению вредоносным кодом RedKit в ночь на пятницу, сообщает ZDNet. По данным издания, жертвами инцидента могли оказаться десятки тысяч посетителей сайта NBC. Как правило, RedKit использует банковский троян под названием Citadel, который способен перехватывать данные банковских карт пользователей, передает digit.ru.

Компания NBC признала факт взлома своего сайта. «Мы идентифицировали проблему и работаем над ее решением. Пользовательские данные в руки злоумышленников не попадали», — заявили в NBC. По данным разработчика решений для инфобезопасности Fox-IT, компания уже очистила страницы сайта от вредоносных ссылок, однако не исключено, что хакеры по-прежнему могут иметь доступ к NBC.com.

Интернет-ресурсы оперативно отреагировали на инцидент — пользователи Facebook, которые пытались поделиться ссылками на сайт NBC.com, получали сообщение об ошибке при обработке запроса, а при попытке перейти по такой ссылке видели предупреждение о возможном заражении сайта. На данный момент ссылки на NBC.com работают на Facebook в нормальном режиме. Поисковик Google также предупреждал пользователей о небезопасности ссылок на NBC, однако сейчас это сообщение убрал.

Взлом NBC.com стал очередным в серии хакерских атак на известные американские медиакомпании — за последний месяц им подверглись издания The Wall Street Journal и The New York Times. По мнению газет, атаки идут из Китая. Кроме того, нападения хакеров на свои ресурсы в феврале фиксировали компания Apple, соцсеть Facebook и сервис микроблогов Twitter. Связаны ли данные атаки между собой, не уточняется.

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru