Более 12 миллионов секретов стали общедоступны на GitHub и Python PyPI

Более 12 миллионов секретов стали общедоступны на GitHub и Python PyPI

Более 12 миллионов секретов стали общедоступны на GitHub и Python PyPI

Эксперты GitGuardian в своём отчете за 2023 год обнародовали информацию более чем о 10 миллионах раскрытых секретов и ключей аутентификации в публичных коммитах GitHub.

К ним относятся пароли, ключи API и другие учетные данные. Поразительно, но к 2024 году стало известно о новых прецедентах – более 12,8 млн раскрытых секретов в GitHub, а так же о некотором числе утечек в популярном репозитории Python PyPI, которые содержат более 20 терабайт файлов в свободном доступе.

По словам GitGuardian, за 2023 год ключи API OpenAI, ключи API Google и ключи Google Cloud стали самыми распространенными обнародованными секретами. К сожалению, это влечет за собой возможность несанкционированного доступа угрозу утечки данных. Ведь любому грамотному специалисту будет по силам найти один общий формат секрета, написав регулярное выражение и использовав автоматизацию проверок на валидность. Тем самым он добывает конфиденциальную информацию.

К сожалению, доверие к публичным репозиториям падает. Ключи, опубликованные в GitHub или PyPI, считаются изначально скомпрометированными. Исследователи провели ряд тестов, где honeytoken (своего рода "разряженный" API-ключ, не имеющий доступа ни к каким ресурсам) проверялся на валидность ботами в течение минуты после публикации на GitHub.

Honeytokens остаются недооцененными, ведь они выступают в роли "доносчика" для все большего числа разработчиков. Они помогают увидеть, что кто-то шпионил там, где вы их разместили, и получить некоторую информацию на основе данных телеметрии, собранных при использовании honeytoken.

Больше всего беспокойства вызывает не только факт, что при публикации секрета злоумышленник может добраться до cloud bill, но и возможность утечки более серьёзной информации при избыточных полномочиях секрета.

Если вдруг вы обнаружили утечку секрета в публичной коллекции исходного кода, то для начала — отзовите его. Помните, что как только ваш секрет опубликован, то он с большой вероятностью уже скопирован. Несмотря на то, что исходный код находится в закрытом хранилище, злоумышленники способны получить доступ к ним при помощи социальной инженерии, фишинга и утечки секретов.

Нужно понимать, что секреты в исходном коде рано или поздно обнаруживаются как в частном хранилище, так и в публичном реестре. Чтобы хоть каким-то способом обезопасить себя, придерживайтесь следующих правил:

  • не храните секреты открытым текстом в исходном коде;
  • ограничивайте привилегии, которые эти секреты предоставляют;
  • если вы обнаружили утечку секрета, отмените его;
  • внедрите автоматизацию, подобную той, что предлагает GitGuardian.

Следуя данным правилам, вам, возможно, не придется сталкиваться с утечкой секретов.

Напомним, в конце прошлого месяца популярный репозиторий Python Package Index (PyPI) ограничил возможность регистрации новых пользователей после масштабной вредоносной кампании по распространению трояна, похищающего данные.

А в январе GitHub провел ротацию ключей после возможной компрометации учетных данных.

ГАИ проиграла суд против роботов-доставщиков

Московский городской суд отклонил жалобу ГАИ на решение суда первой инстанции, который не усмотрел в действиях роботов-доставщиков состава административного правонарушения, связанного с нарушением Правил дорожного движения. Ранее ГАИ обвинило дочернюю компанию Яндекса — «Рободоставку» — в нарушении ПДД.

Поводом для разбирательства стало происшествие 7 марта, когда инспектор ГАИ счёл, что робот-доставщик, передвигавшийся по тротуару, создаёт помехи пешеходам.

По мнению инспектора, это подпадало под статью 12.33 КоАП РФ. Компании «Рободоставка» в этом случае грозил штраф в размере 300 тыс. рублей.

Представители Яндекса с такой трактовкой не согласились, указав, что в действиях роботов-доставщиков отсутствует и не может присутствовать умысел. Дело было рассмотрено в Мещанском районном суде Москвы, который поддержал позицию компании.

«Роботы-доставщики не относятся к транспортным средствам, определённым нормами действующего законодательства. Как следует из видеозаписи, робот-доставщик передвигался по краю тротуара, не перекрывая пешеходную зону, автоматически останавливался при приближении людей. Пешеходы продолжали движение. Контакта, вынужденного сближения, опасных манёвров или остановок зафиксировано не было. Следовательно, объективных признаков угрозы безопасности дорожного движения не имелось», — такую выдержку из решения суда приводит Autonews.

ГАИ с таким решением не согласилась и подала жалобу в Московский городской суд. Однако Мосгорсуд оставил её без удовлетворения. Решение было принято ещё 5 февраля, но опубликовано только вечером 9 февраля.

«Мы работаем над тем, чтобы роботы-доставщики безопасно и корректно интегрировались в городскую среду и городскую инфраструктуру в рамках экспериментального правового режима, а также находимся в постоянном взаимодействии с профильными ведомствами. Подобные кейсы помогают формировать и развивать понятные правила использования автономных устройств в городе по мере накопления практического опыта», — прокомментировали судебное решение в Яндексе.

RSS: Новости на портале Anti-Malware.ru