Google устранила две критические RCE-уязвимости в Android

Google устранила две критические RCE-уязвимости в Android

Google устранила две критические RCE-уязвимости в Android

Google выпустила мартовские обновления для устройств на Android. В общей сложности разработчики устранили 60 уязвимостей, среди которых две были критическими (могут привести к удалённому выполнению кода).

Критические бреши затрагивают Android версий 11, 12 и 13. По традиции интернет-гигант выпустил два набора патчей: 2023-03-01 и 2023-03-05. Первый содержит 31 фикс для системных компонентов Framework, System и Google Play.

«Наиболее опасная из устранённых уязвимостей — критическая дыра в компоненте System. В случае её эксплуатации атакующий может удалённо выполнить вредоносный код, для чего не требуется дополнительных прав или взаимодействия с пользователем», — говорится в замечаниях к выпуску.

Получившие статус критических уязвимости отслеживаются под идентификаторами CVE-2023-20951 и CVE-2023-20954. Google сознательно не раскрывает технические детали, чтобы не помогать злоумышленникам подготовить эксплойт.

Среди оставшихся 29 багов есть и бреши высокой степени риска. Они приводят к повышению прав, раскрытию информации и DoS.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru