Новый Firefox-плагин обнаружит зараженные сайты

...

Для открытого браузера Firefox появился необычный плагин, предоставляющий информацию о техническом состоянии посещаемых сайтов. На конференции Black Hat эксперт по компьютерной безопасности компании Websense Стефан Ченет представил плагин для веб-браузера Mozilla Firefox, получивший название Fireshark.

Fireshark является полностью открытым программным средством, позволяющим оперативно блокировать доступ браузера на скомпрометированные сайты. Ченет отмечает, что у Firefox есть собственный механизм детектирования "вредных" сайтов, но новая разработка работает существенно быстрее, а кроме того не полностью полагается на централизованную базу, но и обладает своим аналитическим механизмом.

Особенность Fireshark состоит в том, что плагин работает в виртуальном режиме, поэтому его крайне сложно инфицировать на локальном уровне. Ченет отмечает, что их разработка не только информирует о проблемах, но и позволяет пользователям составлять отчеты об обнаруженных зараженных сайтах и передавать в центральную базу. Информация, собираемая плагином Fireshark, хранится локально в файлах с расширением .ym. Они по своей структуре аналогичны XML-файлам. Запускать плагин во избежание риска занесения инфекции необходимо в виртуальной машине, предоставив ему список ресурсов, требующих изучения. После запуска Fireshark сделает видимым внедренный в исследуемые сайты код.

"Хакеры практически всегда создают сайты таким образом, чтобы их было почти невозможно отличить от легитимных проектов. Такие сайты в большинстве случае ответственны за массовый взлом настольных компьютеров пользователей", - говорит Ченет. "За последний год объемы скомпрометированных сайтов выросли на 225%, а это означает, что хакеры контролируют все больше контента и имеют больше рычагов воздействия на пользователей".

источник

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Роскомнадзор рекомендует хостерам блокировать роботы Google и Apple

Роскомнадзор советует хостинг-провайдерам ограничить сбор данных с сайтов ботами зарубежных поисковиков и ИИ-сервисов (Google, Apple, OpenAI и т. п.). В качестве причины указана возможность утечки информации об опасных уязвимостях и данных россиян.

Хостерам (в апреле в реестре числилось 428 компаний) надлежит, не откладывая в долгий ящик, проанализировать риски и в случае необходимости заблокировать доступ Googlebot, GPTBot, Apple Bot и проч. к российским ресурсам, руководствуясь инструкциями регулятора.

Как стало известно «Ъ», письма хостерам рассылает Центр мониторинга и управления сетью связи общего пользования (ЦМУ ССОП) Роскомнадзора. Подобное сообщение, к примеру, получили и приняли к сведению в DDoS-Guard.

Ввести запрет на автоматизированный сбор информации рекомендуется на основе User-Agent, приведенный в письме перечень содержит 642 таких ID. Репортер обнаружил совпадение со списком ботов и сканеров уязвимостей, выложенным на GitHub; в блоклисте РКН они пока не числятся.

Специалисты опасаются, что новые рекомендации регулятора могут перерасти в требования. В то же время массовая блокировка привычных ботов может привести к дестабилизации ИТ-систем. Прекращение индексации в Google грозит компаниям потерей солидной части трафика, особенно в странах СНГ, где «Яндекс» менее популярен.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru