Apple пытается убедить всех, что функция сканирования фото — не бэкдор

Apple пытается убедить всех, что функция сканирования фото — не бэкдор

Apple пытается убедить всех, что функция сканирования фото — не бэкдор

Apple всё ещё пытается убедить пользователей, что готовящаяся к запуску функция сканирования фото- и видеоматериалов не несёт никакой опасности для добропорядочных граждан. Например, на этой неделе техногигант из Купертино углубился в детали безопасности нововведения.

Как известно, функция получила имя CSAM, а её основная задача — сканировать фотографии и видеозаписи пользователей iPhone, iPad и macOS-устройств до выгрузки в iCloud. Именно так Apple планирует отслеживать обмен или распространение порнографии с несовершеннолетними лицами.

Ряд экспертов по защите информации, среди которых была компания Electronic Frontier, отметили, что CSAM существенно ограничит такую защитную меру, как сквозное шифрование. Другими словами, Apple собственноручно создала бэкдор и доступ к данным на клиентской стороне.

«Apple может сколько угодно рассказывать о мерах безопасности и конфиденциальности, однако в конечном счёте даже полностью продуманный и контролируемый бэкдор — всё ещё бэкдор», — подчеркнули в Electronic Frontier.

Судя по всему, именно из-за таких обвинений Apple опубликовала новый документ (PDF), подробнее объясняющий работу новой функции. Например, корпорация отметила, что CSAM будет работать только с детскими аккаунтами, при этом родители или опекуны должны будут дать своё согласие. Затем в мессенджеры добавится специальный классификатор, основанный на машинном обучении.

Задача последнего — сканировать отправляемые и получаемые сообщения на наличие неприемлемого контента. Если система обнаружит подобный контент, пользователь увидит специальное предупреждение.

«Это функция не раскрывает информацию Apple. Также мы не передаём никакие подробности переписки и другие сведения правоохранительным органам», — объясняют купертиновцы.

Напомним, что ранее Apple уже заявляла, что не даст властям использовать функцию сканирования фото пользователей. Также отметим, что руководство WhatsApp не поддержало нововедение техногиганта.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru