Только что вышедшая iOS 12.1 содержит баг обхода пароля

Только что вышедшая iOS 12.1 содержит баг обхода пароля

Только что вышедшая iOS 12.1 содержит баг обхода пароля

Спустя всего несколько часов после релиза последней стабильной версии iOS 12.1 исследователь в области безопасности нашел способ обойти экран блокировки iPhone. Это уже далеко не первый описанный способ обхода пароля, раскрытый за последние месяцы. В этом конкретном случае схема позволяет получить личную информацию контактов на заблокированном смартфоне.

В очередной раз вредоносный метод открыл эксперт Жозе Родригес. Специалист подтвердил, что способ работает в последней стабильной версией мобильной операционной системы от Apple — iOS 12.1. Напомним, что iOS 12.1 была выпущена вчера около 20 часов.

Чтобы продемонстрировать наличие бага, Родригес опубликовал видео на YouTube. Удивительно, но новый вредоносный метод реализовать куда легче, чем предыдущие.

Способ обхода завязан на использовании новой функции Group FaceTime (групповые вызовы в FaceTime), эта функция стала доступна пользователям именно в последней версии iOS. Для обхода защиты паролем не требуется даже задействования Siri или VoiceOver.

Чтобы обойти экран блокировки, злоумышленнику необходимо выполнить следующие шаги:

  • Совершить звонок на атакуемый iPhone с любого другого iPhone (если номер неизвестен, можно спросить Siri).
  • Как только соединение установится, инициировать видеовызов с помощью FaceTime с этого же экрана.
  • Открыть меню внизу справа и выбрать «Добавить собеседника» («Add Person»).
  • Нажать значок плюса (+) для доступа к списку контактов атакуемого устройства. Используя функцию 3D Touch, можно просмотреть подробную информацию каждого аккаунта.

Судя по всему, метод будет актуален со всеми современными моделями iPhone, включая серии X и XS.

Ранее Apple выпустила наборы патчей для iOS 12 и iCloud, которые устраняют множество проблем безопасности. В iOS устранены две уязвимости обхода пароля, а в iCloud исправлены в числе прочих критические бреши в безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru