Разработчики раскритиковали GitHub за использование cookies-трекеров

Разработчики раскритиковали GitHub за использование cookies-трекеров

Разработчики раскритиковали GitHub за использование cookies-трекеров

Разработчикам явно не понравилась новая политика площадки GitHub в отношении конфиденциальности. Согласно новым правилам, хостер ИТ-проектов сможет использовать отслеживающие cookies на своих поддоменах.

В августе веб-сервис GitHub, находящийся под крылом Microsoft, объявил, что с сентября на некоторых страницах будут использоваться cookies для отслеживания.

Это немного расходится с тем, что GitHub обещал в конце мая, когда была представлена новая политика конфиденциальности. Тогда владельцы сервисы утверждали, что будут использовать исключительно «необходимые cookies».

Тем не менее 1 сентября 2022 года GitHub поместит cookies-трекеры на несколько поддоменов вроде resources.github.com.

«GitHub вводит дополнительные cookies на страницах, которые используются для продвижения наших продуктов. Эти cookies обеспечат нас аналитикой, помогут улучшить работу сайта и выводить персонифицированный контент и рекламу для корпоративных пользователей», — объясняет Оливия Холдер, отвечающая за вопросы конфиденциальности в GitHub.

Холдер также подчеркнула, что новые правила касаются только маркетинговых веб-страниц и отдельных поддоменов. В остальном площадка продолжит работать без изменений. Само собой, использование отслеживающих cookies не понравилось ряду пользователей.

«Вы потеряли меня после этой “рекламы для корпоративных пользователей”», — пишет пентестер Джонатан Грегсон.

На Change.org даже создали петицию с просьбой остановить внедрение cookies на GitHub.

 

Напомним, что Google пообещала отказаться от сторонних cookies в Chrome в 2024 году. А браузер DuckDuckGo начал блокировать скрипты отслеживания от Microsoft.

Internet Archive научил WordPress автоматически чинить битые ссылки

Internet Archive и Automattic запустили полезный инструмент для всех, кто работает с WordPress. Новый плагин под названием Link Fixer призван бороться с одной из главных болей интернета — «гниением ссылок» (link rot). Если коротко, проблема в том, что со временем ссылки в статьях начинают вести в никуда.

Страницы удаляются, сайты закрываются, URL меняются; и вместо полезного источника читатель получает ошибку.

По данным исследования Pew Research за 2024 год, почти 40% ссылок, существовавших в 2013 году, к сегодняшнему дню уже не работают.

Link Fixer решает эту проблему в связке с Wayback Machine — архивом веб-страниц от Internet Archive. Плагин сканирует публикации на WordPress, проверяет все внешние ссылки и сверяется с архивом.

Если нужной страницы в архиве ещё нет, инструмент сам создаёт её снимок. А если оригинальная ссылка со временем «умирает», читателя автоматически перенаправляют на сохранённую версию.

При этом плагин работает аккуратно: он регулярно перепроверяет ссылки, и если исходная страница снова становится доступной, редирект на архив отключается, а пользователь снова попадает на оригинал. Вдобавок Link Fixer архивирует и сами публикации владельца сайта, помогая сохранить их для будущего.

Управление плагином довольно простое: например, можно настроить, как часто он будет проверять ссылки (по умолчанию — раз в три дня). В итоге инструмент работает в фоне и почти не требует внимания.

Описание и всю подробную информацию можно найти на GitHub.

RSS: Новости на портале Anti-Malware.ru