Ошибки настроек Apache Airflows грозят утечкой ключей AWS и Google Cloud

Ошибки настроек Apache Airflows грозят утечкой ключей AWS и Google Cloud

Ошибки настроек Apache Airflows грозят утечкой ключей AWS и Google Cloud

В открытом доступе обнаружены серверы Apache Airflows, сливающие конфиденциальную информацию, в том числе логины и пароли тысяч корпоративных пользователей. Как оказалось, во всех случаях владельцы используют устаревшую версию софта и неправильные настройки; из-за этого в руки злоумышленников могут попасть ключи к таким веб-сервисам, как AWS, Microsoft Azure, Google Cloud, Binance, PayPal, Stripe и Slack.

Opensource-инструмент Apache Airflow, позволяющий автоматизировать выполнение бизнес- и ИТ-задач, пользуется большой популярностью у крупных компаний различного профиля. Эта платформа для управления рабочими процессами обычно размещается в облаке, и оставлять ее в общем доступе категорически не рекомендуется.

Из ошибок конфигурации, которые выявили эксперты Intezer, наиболее часто встречается вшитый в код пароль. Это упущение было обнаружено во многих файлах DAG (Directed Acyclic Graph, направленный ациклический граф — рабочая сущность Airflow, позволяющая объединять задачи, чтобы они выполнялись в определенной последовательности и по расписанию).

В других случаях идентификаторы пользователя можно было получить из переменной, которую используют все скрипты DAG. Некоторые пользователи хранили незашифрованный пароль в конфигурационном файле (airflow.cfg) или в поле Extra настроек подключения к внешним системам. В Airflow сборок ниже 1.10.13 учетные данные, добавленные через CLI-интерфейс, попали в логи, тоже в открытом виде.

Утечка идентификаторов пользователя в данном случае грозит не только несанкционированным доступом к корпоративным и клиентским данным. На серверах с Airflow веток ниже 1.10 злоумышленник также имел возможность выполнить вредоносный код путем подмены Docker-образа или зависимостей, используемых в рабочем процессе.

Большинство выявленных Intezer проблем были устранены с выпуском Airflow версии 2.0. В ветке 2.1.0, появившейся в минувшем мае, защита от утечек была дополнительно усилена — пароли и другие чувствительные данные в журнале регистрации задач и UI теперь появляются в замаскированном виде. Пользователям настоятельно рекомендуется обновить продукт до последней версии.

Создатель Диспетчера задач объяснил, почему загрузка CPU в Windows врёт

Бывший инженер Microsoft Дэйв Пламмер, приложивший руку к таким знаковым вещам, как поддержка ZIP в Windows и меню «Пуск» в Windows NT, рассказал, как на самом деле Диспетчер задач считает загрузку процессора. И заодно объяснил, почему цифры в этом инструменте иногда кажутся немного странными, особенно если сравнивать их с тем, как компьютер ощущается в реальной работе.

По словам Пламмера, идея просто показать, насколько занят процессор на деле куда сложнее, чем кажется.

Вопросов тут сразу слишком много: занят чем именно, на одном ядре или на всех, прямо сейчас или в среднем за последние секунды, в пользовательском режиме или на уровне ядра? Как только начинаешь во всём этом разбираться, простая шкала загрузки уже перестаёт выглядеть такой уж простой.

Сам Диспетчер задач, как объяснил Пламмер, работает не в режиме мгновенного измерения. Он обновляет данные через определённые интервалы, то есть показывает скорее интерпретацию того, что происходило между обновлениями, а не живую картину в каждый конкретный момент. Поэтому цифры на экране — это всегда усреднённый результат, а не моментальный снимок состояния процессора.

Самым очевидным решением мог бы быть простой расчёт по времени между обновлениями интерфейса. Но Пламмер от такого подхода отказался: он посчитал, что полагаться на точность GUI-таймера — идея так себе. Он даже сравнил это с попыткой доверить точный ритм метронома, который едет в кузове пикапа по разбитой дороге.

Вместо этого он заложил в Диспетчер задач другой принцип. Утилита запрашивает, сколько процессорного времени каждый процесс суммарно использовал с момента запуска (отдельно в пользовательском и системном режимах).

Затем из нового значения вычитается предыдущее, полученное во время прошлого обновления. Так определяется, сколько CPU-времени процесс съел за конкретный промежуток. А дальше это сравнивается с общим объёмом процессорного времени, которое было израсходовано всеми процессами за тот же период.

Звучит не очень просто, но именно такой метод, по словам Пламмера, даёт более точный результат, чем грубый расчёт по таймеру. Проблема в другом: современные процессоры стали намного сложнее, чем во времена, когда создавался классический Диспетчер задач.

Сегодня на работу CPU влияют динамическое изменение частоты, турбобуст, тепловые ограничения, глубокие режимы простоя и другие механизмы. Из-за этого один и тот же процент загрузки уже не всегда означает один и тот же объём реально выполненной работы. Пламмер привёл образное сравнение: современная загрузка CPU больше похожа не на пройденное расстояние, а на загруженность шоссе. Полупустая трасса с быстрыми спорткарами может перевезти больше, чем полностью забитая дорога со старыми грузовиками.

Именно поэтому Диспетчер задач иногда может показывать вроде бы нестрашные цифры, хотя компьютер при этом ощутимо тормозит (или наоборот). Дело не обязательно в ошибке инструмента. Просто сам показатель загрузки процессора уже давно перестал быть идеальным универсальным маркером производительности.

RSS: Новости на портале Anti-Malware.ru