Apple будет сканировать фото пользователей, борясь с насилием над детьми

Apple будет сканировать фото пользователей, борясь с насилием над детьми

Apple будет сканировать фото пользователей, борясь с насилием над детьми

На вчерашнем брифинге Apple рассказала о планах внедрить новую технологию в операционных системах iOS, macOS, watchOS и приложении iMessage. Основная цель — борьба с незаконным медиаконтентом, на котором запечатлена эксплуатация несовершеннолетних лиц. Для этого корпорация их Купертино планирует сканировать фотографии и видеозаписи на устройстве пользователей.

Первыми это коснётся пользователей «яблочной» продукции из США. В новых версиях iOS и iPadOS граждане получат «новые криптографические инструменты, которые помогут бороться с жестоким обращением с детьми». Также купертиновцы обещают учитывать и конфиденциальность добропорядочных пользователей.

Новому проекту, получившему название «Child Safety» посвящена целая страница на официальном сайте Apple. Суть такой борьбы с нарушающими закон снимками заключается в сканировании фотографий на устройстве пользователя до того, как они попадут в iCloud. Само собой, это может вызвать противоречивые чувства у ряда пользователей.

Тем не менее Apple обещает проверять лишь совпадение снимка с тем, что хранится базе известных изображений насилия над детьми. Дескать, другие данные не будут обрабатываться и передаваться.

Здесь стоит упомянуть, что схожую технологию Apple уже годами использует для электронной почты. Более того, крупные имейл-провайдеры вроде Gmail также сканируют передаваемые снимки, пытаясь найти запрещённый контент.

Apple же опубликовала документ (PDF), в котором корпорация фактически оправдывает сканирование медиаматериалов пользователей. Также там описываются отдельные ограничения, призванные соблюсти вопросы конфиденциальности:

  • Корпорация не будет фиксировать данные фотографий, не относящиеся к возможному насилию над детьми.
  • Apple не будет получать доступ к метаданным или визуальным характеристикам совпадающих с базой фото, если только количество такого детектирования не будет большим.
  • Вероятность ошибки, из-за которой аккаунт добропорядочного пользователя может быть отмечен, крайне мала.

При этом пользователи не смогут получить доступ к базе, по которой Apple проверяет фотографии, а также не будут знать, какие из их фото были отмечены.

Google упростила удаление личных данных и интимных фото из поиска

В интернете всегда найдётся кто-то, кто хочет узнать о вас больше, чем следовало бы. К счастью, у Google есть инструменты, которые помогают убрать лишнее из поисковой выдачи. Компания обновила сервис Results About You, который ищет и помогает удалить из выдачи страницы с вашими персональными данными.

Теперь инструмент умеет находить не только адреса и телефоны, но и номера документов, включая паспорт, водительские права и даже номер социального страхования (для США).

Чтобы система знала, что искать, пользователю нужно заранее добавить часть этих данных в настройках. Для водительских прав требуется полный номер, а для паспорта или SSN — только последние четыре цифры. После этого Google будет периодически сканировать выдачу и присылать уведомления, если найдёт совпадения.

Важно понимать: контент не исчезает из Сети полностью, но перестаёт отображаться в поиске Google, что для большинства пользователей уже существенно снижает риски.

Обновление коснулось и инструмента для удаления интимных изображений, опубликованных без согласия человека. Речь идёт как о реальных фото, так и о дипфейках и других сгенерированных ИИ материалах.

Теперь пожаловаться на такие изображения стало проще: достаточно нажать на три точки рядом с картинкой в поиске, выбрать «Удалить результат» и указать, что это интимное изображение. Google уточнит, настоящее это фото или дипфейк, а затем запустит проверку.

Кроме того, теперь можно добавлять сразу несколько изображений в одну заявку, что особенно актуально в эпоху, когда генеративный ИИ позволяют создавать подобный контент буквально за минуты.

Google также добавила возможность мониторинга: если функция включена, система будет автоматически отслеживать появление новых подобных изображений и предупреждать пользователя.

Поиск по ID уже доступен в Results About You. Обновлённый инструмент для удаления интимного контента начнёт появляться в ближайшие дни и будет постепенно распространяться на разные страны.

RSS: Новости на портале Anti-Malware.ru