CVE-2025-38236: баг в Linux открывал путь к захвату ядра через Chrome

CVE-2025-38236: баг в Linux открывал путь к захвату ядра через Chrome

CVE-2025-38236: баг в Linux открывал путь к захвату ядра через Chrome

В Linux-ядре нашли опасную уязвимость CVE-2025-38236, которую обнаружил исследователь из Google Project Zero Янн Хорн. Она позволяет злоумышленнику, начав с выполнения кода внутри песочницы Chrome, добраться до полного контроля над ядром в Linux.

Проблема связана с малоизвестной функцией MSG_OOB (out-of-band) в UNIX domain sockets. Её добавили ещё в Linux 5.15 в 2021 году для специфических приложений Oracle, но она была включена по умолчанию и в итоге оказалась доступна из песочницы Chrome на Linux.

Ошибка приводит к use-after-free — состоянию, при котором система обращается к уже освобождённой области памяти. Хорн показал, что с помощью определённой последовательности операций с сокетами можно читать и изменять память ядра, а значит — повышать привилегии.

Эксплойт был протестирован на Debian Trixie (x86-64) и использовал «примитив чтения» для копирования произвольной памяти ядра в пространство пользователя, обходя защиту usercopy hardening. Хорн нашёл способ использовать даже защитный механизм Debian CONFIG_RANDOMIZE_KSTACK_OFFSET в свою пользу — это помогало точнее выровнять стек для успешной атаки.

Уязвимость уже закрыта в обновлениях Linux, а Chrome изменил работу своей песочницы, заблокировав передачу MSG_OOB-сообщений.

Интересно, что похожая ошибка попадалась фреймворку syzkaller ещё в августе 2024 года, но для её воспроизведения требовалось шесть системных вызовов, а найденный Хорном вариант — восемь. Это подчёркивает, насколько сложно автоматическим инструментам находить такие уязвимости.

Отдельно Хорн отметил, что в Linux-песочнице Chrome остаётся много лишних интерфейсов — от UNIX-сокетов и pipe до syscalls вроде sendmsg() и mprotect(). Ранее через подобные механизмы уже находили баги в futex(), memfd_create() и pipe2().

Эксперт считает, что такие случаи — сигнал к ужесточению настроек песочниц и более внимательному контролю за «экзотическими» возможностями ядра, доступными непривилегированным процессам.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru