Google готов выплатить $1 млн за обход защиты смартфонов Pixel

Google готов выплатить $1 млн за обход защиты смартфонов Pixel

Google готов выплатить $1 млн за обход защиты смартфонов Pixel

Google расширил свою программу по поиску уязвимостей в операционной системе Android, добавив туда новые категории: извлечение данных и обход экрана блокировки. Помимо этого, корпорация обещает $1 миллион тому, кто сможет найти критические уязвимости в чипсете Titan M.

Google награждает исследователей за обнаруженные уязвимости в рамках специальной программы с 2015 года. За это время интернет-гигант успел выплатить более $4 миллионов.

Самое большое на сегодняшний день вознаграждение досталось специалисту Alpha Lab за цепочку эксплойтов, способных привести к выполнению удалённого кода на устройствах Pixel 3. Сумма выплаты составила $201 337.

Теперь Google предлагает $1 миллион за такую же цепочку эксплойтов, способную пробить защиту чипсета Titan M, отвечающего за безопасность устройств Pixel.

Напомним, что Titan M представили в 2018 году с выходом соответствующей линейки смартфонов Pixel. Android использует этот чипсет для защиты конфиденциальных данных и критически важных операций вроде шифрования дисков, передачи важных данных и кодов, а также загрузки системы.

«Мы расширяем нашу программу по поиску уязвимостей, добавляя новую максимальную сумму вознаграждения, равную одному миллиону долларов. Вдобавок мы предлагаем бонус в 50% от этой суммы тому, кто сможет выявить уязвимости в ранних предварительных версиях Android. Таким образом, общее максимальное вознаграждение может составить $1,5 миллиона», — анонсирует Google новые правила.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В ChatGPT нашли семь уязвимостей, сливающих данные пользователей

Исследователи из компании Tenable сообщили о серии уязвимостей, затрагивающих модели GPT-4o и GPT-5, которые лежат в основе ChatGPT. Эти дыры позволяют злоумышленникам похищать личные данные пользователей из памяти и истории переписки бота — без ведома самих пользователей.

Всего специалисты выявили семь векторов атак, часть из которых OpenAI уже устранила. Главная проблема — так называемые «непрямые инъекции промпта» (indirect prompt injection).

С их помощью можно обмануть искусственный интеллект и заставить его выполнять вредоносные инструкции, даже если пользователь ничего не подозревает.

Среди найденных методов — внедрение команд через вредоносные сайты, запросы к ChatGPT с поддельными ссылками или командами, маскированными под разрешённые домены (например, через bing.com), а также скрытие вредоносных инструкций в коде веб-страниц. В одном из сценариев атаки злоумышленник мог «отравить» память ChatGPT, добавив туда свои команды через сайт, который пользователь попросил бота кратко пересказать.

Подобные инъекции не требуют от пользователя кликов или загрузки файлов — достаточно обычного запроса вроде «расскажи, что написано на этом сайте». Если страница уже проиндексирована поисковиком, ИИ мог выполнить вредоносный код автоматически.

 

Tenable отмечает, что такие атаки — проблема не только OpenAI. За последние месяцы исследователи обнаруживали похожие уязвимости в Claude, Copilot, и других ИИ-инструментах. Некоторые позволяли похищать данные, обходить фильтры безопасности или подменять ответы модели.

По словам экспертов, полностью устранить угрозу инъекций промпта в ближайшее время вряд ли удастся. Они рекомендуют разработчикам ИИ-сервисов тщательнее проверять механизмы безопасности и фильтры URL, чтобы свести риски к минимуму.

Не так давно мы рассуждали на тему «можно ли доверять GenAI». Рассматривали галлюцинации и контроль достоверности ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru