Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Исследователи из Имперского колледжа Лондона показали лёгкий способ обмануть систему сканирования медиаконтента. В качестве примера взяли технологию Apple CSAM, которая создала немало шума летом этого года.

Напомним, что CSAM (Child Sexual Abuse Material) была разработана с целью вычислять и пресекать распространение порнографических материалов, в которых фигурируют несовершеннолетние лица.

Из-за большого давления пользователей и специалистов по защите информации техногиганту из Купертино пришлось отложить введение этой функции в эксплуатацию до 2022 года. За это время разработчики обещали усовершенствовать CSAM и сделать саму технологию более прозрачной.

Основная идея разработки Apple опирается на сравнение хешей изображений, которые передаются с помощью iOS-устройств, с базой данных NCMEC и других организаций, занимающихся вопросами защиты детей.

Если CSAM найдёт совпадения, специалисты Apple изучат содержимое подозрительных материалов, а затем, если алерт подтвердится, передадут правоохранителям информацию о распространении детской порнографии.

Однако на симпозиуме USENIX специалисты продемонстрировали интересный способ, доказывающий, что ни Apple CSAM, ни любая другая аналогичная система не способна эффективно детектировать нелегальный контент.

По словам исследователей, алгоритмы детектирования достаточно легко обмануть — в 99,9% случаев, причём для этого даже не потребуется визуально менять изображения. Сам фокус заключается в использовании специального хеш-фильтра, который заставит систему сканирования воспринимать этот контент иначе. Для глаза человека разница будет незаметна:

 

В отчёте (PDF) специалисты указали на контрмеры — увеличить порог срабатывания, однако это неизбежно приведёт к ложноположительным детектам.

Напомним, в прошлом месяце стало известно, что Евросоюз уже давно хотел сканировать фото на iPhone пользователей, ещё до самого анонса технологии Apple CSAM.

В WhatsApp появится приватный режим для разговоров с ИИ

Meta (признана экстремисткой и запрещена в России) добавит в WhatsApp возможность запускать приватные разговоры с чат-ботом Meta AI. Компания обещает, что такие сессии не будут сохраняться, а сообщения исчезнут после закрытия чата.

Новый режим можно будет включить через отдельную иконку в личном чате с Meta AI. Позже он появится и в самостоятельном приложении Meta AI. Развёртывание функции в WhatsApp и Meta AI App займёт несколько месяцев.

В Meta объясняют, что пользователи всё чаще обращаются к ИИ с личными вопросами — от финансов и здоровья до советов по сложным перепискам с друзьями или коллегами. Поэтому компания хочет дать возможность задавать такие вопросы более приватно.

Инкогнито-сессия будет завершаться, если пользователь закроет чат, заблокирует телефон или выйдет из приложения. После этого Meta AI потеряет контекст разговора и не сможет продолжить беседу с учётом предыдущих сообщений.

Для работы таких чатов Meta использует инфраструктуру private processing. Корпорация рассказывала о ней в прошлом году: она нужна для запуска ИИ-функций в WhatsApp без нарушения сквозного шифрования. На этой архитектуре уже работают, например, ИИ-сводки сообщений.

По словам Meta, новый режим использует модель Muse Spark, представленную в прошлом месяце. Ранее для некоторых ИИ-функций в WhatsApp применялись более компактные модели.

Компания также готовит ещё одну функцию — Side Chat. Она позволит обращаться к Meta AI прямо внутри обычных переписок, но так, чтобы другие участники чата не видели запрос и ответ. Сейчас для общения с ИИ в групповом или личном чате нужно явно упоминать ассистента, и ответ видят все участники.

Meta выходит с приватными ИИ-чатами на рынок, где похожие режимы уже есть у ChatGPT и Claude. Кроме того, свои приватные чат-боты развивают DuckDuckGo и Proton.

Тема приватности ИИ-переписок становится всё важнее: пользователи всё чаще обсуждают с чат-ботами чувствительные темы, а юристы уже предупреждают, что такие диалоги в отдельных случаях могут всплывать в судебных разбирательствах.

RSS: Новости на портале Anti-Malware.ru