Apple исправит ошибку Gatekeeper в будущем году

Apple исправит ошибку Gatekeeper в будущем году

Apple исправит ошибку Gatekeeper в будущем году

Компания Apple пообещала устранить проблему с запуском сторонних приложений на macOS, возникшую у некоторых пользователей после установки ноябрьских обновлений. Как оказалось, процесс тормозит штатный охранник Gatekeeper, которому из-за перегрузки серверов Apple не удается проверить сертификат разработчика при попытке открытия новой программы.

Охранная система Gatekeeper призвана уберечь macOS от запуска потенциально опасных и вредоносных приложений. Благонадежность кода определяется по подписи, при этом Gatekeeper сверяется с базой доверенных разработчиков на сервере Apple. Если подписи нет или сертификат, на основе которого она создана, во внутренней базе отсутствует, охранник блокирует запуск приложения.

На прошлой неделе состоялся выпуск новой версии macOS — Big Sur. Обновление на местах породило всплеск жалоб: пользователи и разработчики сообщали о невозможности корректно запустить приложение. В то же время программы, открытые на момент обновления, продолжали исправно работать.

В ответ на жалобы служба техподдержки продуктов Apple обновила запись на сайте, пообещав повысить отказоустойчивость серверов компании в новом году. Также будет запущен новый защитный протокол для проверки отзыва сертификатов разработчика. В настоящее время шифрование коммуникаций Gatekeeper с сервером является необязательным, и это вызывает опасения, будто таким образом могут утечь собранные Apple данные об использовании приложений.

В обновленной записи разработчики опровергли слухи о сборе приватной информации через Gatekeeper.

«Мы не сопоставляем данные этих проверок с информацией о пользователях Apple или их устройствах, — пишут представители службы техподдержки. — Мы не используем данные проверок, чтобы узнать, что стартует или запущено на устройствах пользователей».

В обеспечение приватности пользователей Apple неделю назад отключила на серверах регистрацию IP-адресов в ходе проверок, которые выполняет Gatekeeper, и пообещала очистить все логи. Компания также планирует расширить выбор для пользователей — ввести опцию отказа от нововведений в системе защиты.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru