Почти 200 000 сайтов по-прежнему уязвимы перед проблемой Heartbleed

Почти 200 000 сайтов по-прежнему уязвимы перед проблемой Heartbleed

Почти 200 000 сайтов по-прежнему уязвимы перед проблемой Heartbleed

Уязвимость Heartbleed (CVE-2014-0160), выявлена в популярной криптографической библиотеке OpenSSL еще в 2014 году. Основная проблема связана с отсутствием необходимой проверки границ в одной из процедур расширения Heartbeat (RFC6520) для протокола TLS/DTLS.

Из-за этой маленькой ошибки кто угодно может получить доступ к оперативной памяти машин, чьи коммуникации «защищены» уязвимой версией OpenSSL. В том числе, злоумышленник получает доступ к секретным ключам, именам и паролям пользователей и всему контенту, который должен передаваться в зашифрованном виде. При этом не остается никаких следов проникновения в систему, сообщает xakep.ru.

23 января 2017 года глава и основатель Shodan Джон Мазерли (John Matherly) представил свежий отчет о проблеме Heartbleed. Оказалось, что спустя почти три года уязвимость все еще представляет опасность для 199 594 сайтов, чьи администраторы, видимо, очень не любят устанавливать обновления. Подробную статистику по странам можно увидеть ниже.

 

 

 

Мазерли пишет, что около 75 000 уязвимых систем также используют истекшие SSL-сертификаты и работают на Linux 3.x.

Нежелание пользователей и администраторов обновлять ПО, остается одной из главных проблем, наряду с неугасающей любовью к паролю «123456». Совсем не удивительно, что в прошлом году специалисты Microsoft назвали самой опасной угрозой Stuxnet, хотя патч для этой проблемы был выпущен шесть лет тому назад. Еще одно доказательство беспечности пользователей – отчет специалистов Sophos, тоже представленный в прошлом году. Исследователи выявили, что эксплоиты для Office 2003, 2007 и 2010 по-прежнему занимают лидирующие позиции во всех топовых эксплоит-китах. Тогда авторы отчета писали, что сложившаяся ситуация напоминает им современный вариант дарвиновского труда «Происхождение видов».

Internet Archive научил WordPress автоматически чинить битые ссылки

Internet Archive и Automattic запустили полезный инструмент для всех, кто работает с WordPress. Новый плагин под названием Link Fixer призван бороться с одной из главных болей интернета — «гниением ссылок» (link rot). Если коротко, проблема в том, что со временем ссылки в статьях начинают вести в никуда.

Страницы удаляются, сайты закрываются, URL меняются; и вместо полезного источника читатель получает ошибку.

По данным исследования Pew Research за 2024 год, почти 40% ссылок, существовавших в 2013 году, к сегодняшнему дню уже не работают.

Link Fixer решает эту проблему в связке с Wayback Machine — архивом веб-страниц от Internet Archive. Плагин сканирует публикации на WordPress, проверяет все внешние ссылки и сверяется с архивом.

Если нужной страницы в архиве ещё нет, инструмент сам создаёт её снимок. А если оригинальная ссылка со временем «умирает», читателя автоматически перенаправляют на сохранённую версию.

При этом плагин работает аккуратно: он регулярно перепроверяет ссылки, и если исходная страница снова становится доступной, редирект на архив отключается, а пользователь снова попадает на оригинал. Вдобавок Link Fixer архивирует и сами публикации владельца сайта, помогая сохранить их для будущего.

Управление плагином довольно простое: например, можно настроить, как часто он будет проверять ссылки (по умолчанию — раз в три дня). В итоге инструмент работает в фоне и почти не требует внимания.

Описание и всю подробную информацию можно найти на GitHub.

RSS: Новости на портале Anti-Malware.ru