Учёные создали ИИ-агента для поиска уязвимостей в Android

Учёные создали ИИ-агента для поиска уязвимостей в Android

Учёные создали ИИ-агента для поиска уязвимостей в Android

Учёные из Китая и Австралии представили систему A2 — ИИ-агента, который умеет находить уязвимости в Android-приложениях и даже создавать PoC-эксплойты на лету. По сути, это продолжение их предыдущей разработки A1, ориентированной на смарт-контракты, только теперь фокус на мобильных приложениях.

Авторы исследования — Цзыюэ Ван из Нанкинского университета и Лийи Чжоу из Университета Сиднея — утверждают, что A2 показывает впечатляющие результаты: 78,3% покрытия на тестовом наборе Ghera против 30% у статического анализатора APKHunt.

Более того, при проверке 169 реальных APK-файлов агент нашёл 104 уязвимостей нулевого дня, из которых 57 подтвердил автоматически с помощью PoC-эксплойтов.

Один из примеров — баг в приложении более чем с 10 миллионами установок. Речь идёт об уязвимости типа intent redirect: если приложение не проверяет, куда именно отправляется «интент» (сообщение с запросом действия), злоумышленник может подменить получателя и перехватить управление.

Главное отличие A2 от предыдущих решений в том, что система не просто ищет подозрительные места в коде, а сама же проверяет их на практике. Как поясняет Чжоу, A2 разбивает задачу на этапы — найти ключ, сгенерировать токен, обойти аутентификацию — и на каждом шаге подтверждает результат. Это сильно снижает количество ложных срабатываний, от которых страдают традиционные сканеры.

Любопытно и то, что A2 построен на коммерческих ИИ-моделях вроде OpenAI o3 и Gemini 2.5. Они распределены по ролям: планировщик, исполнитель и валидатор. Такой «оркестр» ИИ позволяет подойти к поиску уязвимостей так, как это сделал бы живой эксперт.

Разработчики уверены: будущее за подобными агентами. Стоимость проверки уязвимости колеблется от менее доллара до нескольких долларов, а потенциальные вознаграждения в программах баг-баунти могут достигать тысяч. Правда, остаётся вопрос: баг-баунти покрывают далеко не все приложения, и часть найденных уязвимостей может оказаться на вооружении злоумышленников.

По словам Чжоу, мы стоим на пороге «взрыва» в этой области: одни будут использовать A2-подобные системы для защиты, другие — для атак. Адам Бойнтон из Jamf добавляет, что ценность A2 именно в том, что он переводит процесс из бесконечного потока «шумных» алертов в доказательную практику, где командам безопасности остаётся разбираться только с реальными рисками.

Код A2 и артефакты пока доступны только исследователям с институциональной аффиляцией — баланс между открытой наукой и ответственным раскрытием.

Линус Торвальдс резко высказался против ИИ-слопа в ядре Linux

Пока мир захлёбывается от LLM-ботов и бесконечного ИИ-слопа, ядро Linux, похоже, остаётся последним бастионом здравого смысла. По крайней мере, если судить по свежей реакции Линуса Торвальдса на дискуссию вокруг использования ИИ в разработке ядра.

Создатель Linux довольно резко высказался по поводу идеи как-то отдельно регулировать или документировать вклад, сделанный с помощью LLM-помощников.

Поводом стало сообщение разработчика ядра Лоренцо Стоукса, связанного с Oracle, который усомнился в популярной формуле «LLM — это просто ещё один инструмент» и назвал такую позицию наивной.

Ответ Торвальдса был, мягко говоря, недипломатичным — в его стиле:

«Нет. Глупая тут как раз твоя позиция. Говорить об “ИИ-слопе” — это просто идиотизм. Люди, которые клепают плохие патчи с помощью ИИ, не будут добросовестно это документировать. Это настолько очевидно, что я вообще не понимаю, зачем это обсуждать».

Дальше — ещё жёстче. По мнению Торвальдса, документация ядра не должна превращаться в идеологическое поле боя между апологетами ИИ и сторонниками «конца света»:

«Я не хочу, чтобы документация по разработке ядра становилась заявлением об ИИ. У нас и так хватает людей по обе стороны — от “всё пропало” до “ИИ революционизирует разработку”».

Именно поэтому он настаивает на нейтральной формулировке «просто инструмент». Не потому, что он безоговорочно верит в LLM, а потому что документация — не место для деклараций.

При этом позиция Торвальдса остаётся, как ни странно, неоднозначной. Формально он не запрещает использование ИИ-помощников и, похоже, понимает, что запрет был бы бессмысленным. Если LLM-боты можно использовать тайком, их всё равно будут использовать. Просто не скажут об этом.

Контекст у спора вполне реальный. Команды разработчиков уже работают над чёткими рекомендациями по написанию патчей с помощью ИИ, а сами инструменты активно применяются на практике.

Сам Торвальдс раньше высказывался об ИИ куда мягче. В 2024 году он говорил, что 90% ИИ-маркетинга — это хайп, а позже неожиданно допустил вайб-кодинг, но с оговоркой: «если это не для чего-то важного». С этим, впрочем, далеко не все согласились — включая технических журналистов.

Кроме того, Линус в декабре неожиданно оправдал Windows BSOD.

RSS: Новости на портале Anti-Malware.ru