Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Развертывание защиты Android System SafetyCore вызвало опасения в отношении приватности чатов. Разработчик пояснил: ИИ-приложение не сканирует контент на стороне клиента, а лишь классифицирует его по запросу Google Messages.

О намерении Google усилить защиту обмена сообщениями в Android с помощью ИИ стало известно в октябре прошлого года. Механизм SafetyCore на тот момент проходил тестирование, а теперь его начали подключать на устройствах с ОС версий 9 и выше, а также с Android Go.

«SafetyCore — это новая системная служба Android 9+, создающая на устройстве инфраструктуру для безопасной и конфиденциальной классификации контента с тем, чтобы пользователи могли отсеивать нежелательные сообщения», — заявил представитель Google в ответ на запрос The Hacker News о комментарии.

Отсутствие оснований для опасений подтвердили участники проекта GrapheneOS, которые и сами бы не прочь внедрить решение Google, но исходники SafetyCore закрыты.

«Google Messages использует новое приложение для категоризации сообщений: спам, вредоносные, обнаженка и т. п. О попытках детекта нелегального контента с отправкой отчетов на сервис здесь и речи нет».

От себя добавим: новая фича Google схожа с защитой Communication Safety, которую Apple реализовала для iMessage. Там тоже локально используется ИИ, и по результатам анализа аттачей пользователям выводятся предупреждения.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru