Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Google: Android SafetyCore — не сканер, а классификатор контента на базе ИИ

Развертывание защиты Android System SafetyCore вызвало опасения в отношении приватности чатов. Разработчик пояснил: ИИ-приложение не сканирует контент на стороне клиента, а лишь классифицирует его по запросу Google Messages.

О намерении Google усилить защиту обмена сообщениями в Android с помощью ИИ стало известно в октябре прошлого года. Механизм SafetyCore на тот момент проходил тестирование, а теперь его начали подключать на устройствах с ОС версий 9 и выше, а также с Android Go.

«SafetyCore — это новая системная служба Android 9+, создающая на устройстве инфраструктуру для безопасной и конфиденциальной классификации контента с тем, чтобы пользователи могли отсеивать нежелательные сообщения», — заявил представитель Google в ответ на запрос The Hacker News о комментарии.

Отсутствие оснований для опасений подтвердили участники проекта GrapheneOS, которые и сами бы не прочь внедрить решение Google, но исходники SafetyCore закрыты.

«Google Messages использует новое приложение для категоризации сообщений: спам, вредоносные, обнаженка и т. п. О попытках детекта нелегального контента с отправкой отчетов на сервис здесь и речи нет».

От себя добавим: новая фича Google схожа с защитой Communication Safety, которую Apple реализовала для iMessage. Там тоже локально используется ИИ, и по результатам анализа аттачей пользователям выводятся предупреждения.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru