Apple выдаст багхантерам кастомные iPhone 14 Pro для поиска дыр

Apple выдаст багхантерам кастомные iPhone 14 Pro для поиска дыр

Apple выдаст багхантерам кастомные iPhone 14 Pro для поиска дыр

Apple приглашает исследователей в области кибербезопасности поучаствовать в программе Security Research Device (SRDP). Специалисты смогут проверить специальные версии iPhone на наличие уязвимостей и получить денежные вознаграждения.

Apple впервые представила инициативу SRDP в 2019 году. С момента запуска программы исследователям удалось выявить 130 критических уязвимостей и помочь «яблочному» техногиганту усилить защищенность ядра XNU, его расширений и служб XPC.

Специальные устройства, которые Apple предлагает участникам программы, получили название Security Research Device (SRD). В этот раз корпорация даст модифицированные с аппаратной точки зрения модели iPhone 14 Pro.

Эти девайсы будут оснащены специальными инструментами и функциональностью, позволяющей отключить или сконфигурировать многие защитные механизмы iOS.

В частности, эксперты смогут установить и загрузить кастомные кеши ядра, запустить произвольный код, загружать службы при старте системы и многое другое.

«С такими устройствами у исследователей будет возможность загружать контент по сторонним каналам [так называемый side-load — прим. ред.], который будет работать с адекватными разрешениями уровня платформы», — объясняет Apple.

Само собой, SRD-смартфоны не предназначены для использования в повседневной жизни. Эти устройства включаются только при зарядке, а на всех экранах красуется надпись «Security Research Device».

Все желающие принять участие в программе могут подать заявку на этой странице до 31 октября 2023 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Продажи плюшевых ИИ-мишек приостановлены из-за их сексуальных фантазий

Базирующаяся в Сингапуре компания FoloToy сняла с продажи медвежат Kumma и другие игрушки на основе ИИ после того, как исследователи выявили их склонность к вредным советам и обсуждению сексуальных пристрастий.

Вендор интеллектуальных плюшевых мишек заявил, что проводит аудит безопасности ассортимента, использующего ИИ-технологии.

Набивной плюшевый мишка с интегрированным чат-ботом на основе GPT-4o производства OpenAI продавался по цене $99 и позиционировался как дружелюбный и знающий собеседник, которого оценят и любознательные дети, и их родители.

Как выяснилось, вооруженная ИИ приятная игрушка использует его без должных ограничений. Тестирование показало, что Kumma с готовностью выдают потенциально опасный контент — сведения о нетрадиционном сексе с наглядной графикой, а также советы о том, как зажигать спички и где отыскать в доме ножи.

Получив соответствующее уведомление, OpenAI заблокировала разработчика детских игрушек за нарушение ее политик. Вместе с тем исследователи с сожалением отмечают, что это не единичный случай: производство ИИ-игрушек пока никак не регулируется, а поток их продаж растет.

Удаление одного потенциально опасного продукта с прилавков, по мнению экспертов, не решит проблемы, пока не будет введен систематический контроль.

Стоит заметить, что детские игрушки на основе ИИ, склонного к галлюцинациям, способны нанести еще больший вред, чем некогда модные интерактивные куклы, мягкие зверики и роботы, подключенные к интернету и потому уязвимые к взлому и перехвату персональных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru