Глава GitHub опроверг информацию о взломе веб-сервиса

Глава GitHub опроверг информацию о взломе веб-сервиса

Глава GitHub опроверг информацию о взломе веб-сервиса

Представители веб-сервиса GitHub опровергли информацию о взломе. Напомним, что ранее неизвестные заявили о краже исходного кода ресурсов GitHub.com и GitHub Enterprise.

Специальный пост в разделе DMCA злоумышленники замаскировали под сообщение от генерального директора GitHub Нэта Фридмана. Однако сам Фридман заявил, что это не его рук дело, а также опроверг слухи о компрометации сайта GitHub.

По словам гендиректора, так называемый слитый код имеет отношение исключительно к продукту GitHub Enterprise Server, который позволяет компаниям запускать серверы по модели on-premise, если им нужно хранить исходный код локально.

Фридман уточнил, что код утёк за несколько месяцев до этой ситуации, а причиной стала ошибка сотрудников.

 

Глава GitHub пообещал, что разработчики устранят два бага, которые привели к утечке, и закроют другие лазейки, позволяющие третьим лицам присовокуплять свой код к проектам других людей.

287 расширений для Chrome с 37 млн шпионили за пользователями

Исследователи безопасности обнаружили 287 расширений для Google Chrome, которые, по их данным, тайно отправляли данные о посещённых пользователями сайтах на сторонние серверы. Суммарно такие расширения были установлены около 37,4 млн раз, что равно примерно 1% мировой аудитории Chrome.

Команда специалистов подошла к проверке не по описаниям в магазине и не по списку разрешений, а по фактическому сетевому поведению.

Для этого исследователи запустили Chrome в контейнере Docker, пропустили весь трафик через MITM-прокси и начали открывать специально подготовленные URL-адреса разной длины. Идея была простой: если расширение «безобидное» — например, меняет тему или управляет вкладками — объём исходящего трафика не должен расти вместе с длиной посещаемого URL.

А вот если расширение передаёт третьей стороне полный адрес страницы или его фрагменты, объём трафика начинает увеличиваться пропорционально размеру URL. Это измеряли с помощью собственной метрики. При определённом коэффициенте расширение считалось однозначно «сливающим» данные, при более низком — отправлялось на дополнительную проверку.

 

Работа оказалась масштабной: на автоматическое сканирование ушло около 930 процессорных дней, в среднем по 10 минут на одно расширение. Подробный отчёт и результаты опубликованы в открытом репозитории на GitHub, хотя авторы намеренно не раскрыли все технические детали, чтобы не облегчать жизнь разработчикам сомнительных аддонов.

Среди получателей данных исследователи называют как крупные аналитические и брокерские экосистемы, так и менее известных игроков. В отчёте фигурируют, в частности, Similarweb, Big Star Labs (которую авторы связывают с Similarweb), Curly Doggo, Offidocs, а также ряд других компаний, включая китайские структуры и небольших брокеров.

Проблема не ограничивается абстрактной «телеметрией». В URL могут содержаться персональные данные, ссылки для сброса паролей, названия внутренних документов, административные пути и другие важные детали, которые могут быть использованы в целевых атаках.

 

Пользователям советуют пересмотреть список установленных расширений и удалить те, которыми они не пользуются или которые им незнакомы. Также стоит обращать внимание на разрешение «Читать и изменять данные на всех посещаемых сайтах» — именно оно открывает путь к перехвату URL.

RSS: Новости на портале Anti-Malware.ru