Япония осталась без интернета из-за ошибки Google

Япония осталась без интернета из-за ошибки Google

Япония осталась без интернета из-за ошибки Google

В прошлую пятницу, 25 августа 2017 года, интернет в Японии работал со значительными перебоями с 12:22 до 13:01 по местному времени. Виной тому стала ошибка сотрудников Google. Проблема заключалась в проколе динамический маршрутизации BGP и ошибке в его использовании.

На текущий момент BGP является основным протоколом динамической маршрутизации в интернете. Он предназначен для обмена информацией о достижимости подсетей между так называемыми автономными системами (АС, англ. AS — autonomous system), то есть группами маршрутизаторов под единым техническим и административным управлением.

 

В пятницу специалисты Google (компании даже принадлежит собственный AS номер) допустили ошибку, неверно анонсировав блоки IP-адресов, принадлежащих японским провайдерам. В результате другие провайдеры, включая таких гигантов как Verizon, стали направлять трафик, предназначенный для Японии, на серверы Google, которые к этому не готовы, пишет xakep.ru.

В результате в Японии оказались практически недоступны многие сервисы, включая правительственные и банковские порталы, системы бронирований и так далее. Более того, пользователи извне не могли подключиться к сервисам Nintendo, а также ряду торговых площадок, расположенных внутри страны.

Хотя проблему устранили в течение часа, случившееся успело посеять панику среди японских пользователей. Местные СМИ сообщают, что расследованием инцидента уже занимается Министерство внутренних дел и коммуникаций Японии.

По данным ресурса BGPMon (компания принадлежит OpenDNS и Cisco), специалисты Google напортачили с трафиком крупного провайдера NTT Communications Corp., который также поддерживает двух провайдеров поменьше, OCN и KDDI Corp. Суммарно NTT предоставляет услуги 7,67 млн частных лиц и 480 000 компаниями.

Согласно анализу специалистов BGPMon, в общей сложности сбой затронул 135 000 сетевых префиксов по всему миру, и более 24 000 из них принадлежали NTT, который пострадал от сбоя больше других. Представители Google и Verizon уже принесли официальные извинения, однако они так и не пояснили, был данный инцидент результатом сбоя оборудования или виной всему был пресловутый человеческий фактор.

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru