Google переводит клиентов на SSL по-умолчанию для поискового сервиса

Google переводит клиентов на SSL по-умолчанию для поискового сервиса

Крупнейший в мире интернет-поисковик Google начинает использовать защищенный протокол HTTPS при обработке запросов пользователей, чтобы сохранить приватность самих запросов и персонализированной поисковой выдачи, сообщила компания в корпоративном блоге. Использование защищенного протокола поможет улучшить безопасность данных пользователя, особенно при подключении к сервису по незащищенному соединению, вроде публичной точки доступа Wi-Fi в кафе. 

Кроме того, отмечает Google, новая функция обеспечит приватность поисковых запросов и результатов выдачи. Сайты, на которые пользователь переходит по зашифрованному каналу Google, по-прежнему смогут понять, что переход осуществлен именно с этого поисковика, однако не увидят, по какому именно запросу. Разработчики смогут просмотреть в Google Webmaster Tools статистику из топ-1000 поисковых запросов за месяц, которые наиболее активно стимулировали переходы с поисковой выдачи Google на их сайты.

Если пользователь кликнет на рекламу, то рекламодатель все же увидит запрос, соответствующий переходу по своему объявлению, так как, по мнению Google, это позволяет измерять эффективность кампании, а также повышать качество и релевантность рекламы. Владельцев аккаунтов, вошедших в систему, Google будет переадресовывать на зашифрованный канал автоматически. Если пользователь не залогинился либо не имеет аккаунта в Google, он может самостоятельно перейти на главную страницу поисковика https://www.google.com, использующую протокол HTTPS.

Протокол HTTPS (Hypertext Transfer Protocol Secure) является расширением стандартного протокола HTTP, поддерживающим технологии шифрования SSL и TLS. Данный протокол Google с января 2010 года стала по умолчанию использовать для почтового сервиса Gmail. В качестве опции данная функция доступна пользователям социальной сети Facebook, а сервис микроблогов Twitter с августа начал использовать HTTPS по умолчанию для всех пользователей. Это уже не первая попытка Google защитить поисковый трафик. В 2010 году Google также запустила особый домен своего поискового сервиса https://encrypted.google.com, трафик которого шифровался. Кроме того, существовали сторонние расширения для интернет-браузеров, которые перенаправляли пользователя на этот домен.

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru