Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Развертывание защиты Android System SafetyCore вызвало опасения в отношении приватности чатов. Разработчик пояснил: ИИ-приложение не сканирует контент на стороне клиента, а лишь классифицирует его по запросу Google Messages.

О намерении Google усилить защиту обмена сообщениями в Android с помощью ИИ стало известно в октябре прошлого года. Механизм SafetyCore на тот момент проходил тестирование, а теперь его начали подключать на устройствах с ОС версий 9 и выше, а также с Android Go.

«SafetyCore — это новая системная служба Android 9+, создающая на устройстве инфраструктуру для безопасной и конфиденциальной классификации контента с тем, чтобы пользователи могли отсеивать нежелательные сообщения», — заявил представитель Google в ответ на запрос The Hacker News о комментарии.

Отсутствие оснований для опасений подтвердили участники проекта GrapheneOS, которые и сами бы не прочь внедрить решение Google, но исходники SafetyCore закрыты.

«Google Messages использует новое приложение для категоризации сообщений: спам, вредоносные, обнаженка и т. п. О попытках детекта нелегального контента с отправкой отчетов на сервис здесь и речи нет».

От себя добавим: новая фича Google схожа с защитой Communication Safety, которую Apple реализовала для iMessage. Там тоже локально используется ИИ, и по результатам анализа аттачей пользователям выводятся предупреждения.

Фальшивый блокировщик рекламы для ChatGPT оказался аддоном-шпионом

OpenAI недавно начала тестировать рекламу в ChatGPT для части пользователей бесплатного тарифа, и уже появились желающие быстро заработать на новой теме. Исследователи из DomainTools обнаружили в Chrome Web Store вредоносное расширение ChatGPT Ad Blocker, которое обещало убрать рекламу из чат-бота, а на деле воровало пользовательские переписки.

OpenAI действительно в последние месяцы начала тесты рекламы в ChatGPT для части пользователей Free и Go, поэтому приманка выглядела вполне правдоподобно.

По данным DomainTools, расширение позиционировалось как «бесплатный и лёгкий» способ «убрать рекламу и оставить ИИ», но его основная задача была совсем другой.

После установки оно внедряло скрипт в страницу ChatGPT, копировало содержимое активного окна чата, сохраняло структуру переписки и большую часть текста, а затем отправляло этот дамп через жёстко прописанный Discord-вебхук в закрытый канал. Исследователи отдельно пишут, что таким образом утекали не только запросы пользователя, но и метаданные, и состояние интерфейса.

 

Аддон клонировал HTML страницы ChatGPT, убирал часть визуальных элементов вроде стилей и картинок, но оставлял текст и логику диалога. При этом редактировались только очень длинные текстовые фрагменты, а обычные промпты и ответы в большинстве случаев сохранялись целиком. DomainTools также указывает, что похищенные данные принимал Discord-бот с говорящим именем Captain Hook.

Отдельно исследователи связывают расширение с GitHub-аккаунтом krittinkalra, который, по их данным, пересекается с проектами AI4ChatCo и Writecream. На этом фоне авторы отчёта задаются вопросом: не используются ли похожие механики сбора данных и в других продуктах, связанных с этой же персоной. Прямых доказательств этого в отчёте нет, но сам сигнал имеется.

RSS: Новости на портале Anti-Malware.ru