Телефонные мошенники становятся всё изобретательнее: они комбинируют утечки персональных данных с продуманной психологией и могут выглядеть очень убедительно даже для технически подкованных людей. В ответ Google усиливает защиту владельцев Android-смартфонов, делая ставку на ИИ.
По данным компании, её системы ежемесячно помогают блокировать более 10 млрд подозрительных звонков и сообщений.
Теперь Google расширяет использование модели Gemini, работающей прямо на устройстве, чтобы выявлять сложные схемы обмана в реальном времени.
В свежем обновлении безопасности компания рассказала историю ИТ-специалиста из Калифорнии, который едва не попался на уловку. Ему позвонили якобы из банка, номер был подменён, собеседник знал его имя и адрес и уверенно рассказывал о «подозрительной операции».
Даже понимая, как работают такие схемы, мужчина задержался на линии дольше обычного. Спасла его только всплывшая на экране подсказка о возможном мошенничестве. После этого он завершил разговор и проверил информацию через банковское приложение.
Функция Scam Detection анализирует разговор во время звонка и ищет характерные для мошенников речевые паттерны. Обработка происходит локально — модель Gemini работает прямо на смартфоне. Google подчёркивает, что аудио не сохраняется и никуда не отправляется. При этом функция по умолчанию отключена, пользователь сам решает, включать её или нет.
Сначала защита была доступна только на устройствах Pixel в ряде стран, включая США и Великобританию. Теперь её начинают внедрять и на другие флагманы — например, на Samsung Galaxy S26 в США.
Похожий подход применяется и к текстовым сообщениям. Защита от мошенничества в Google Messages расширяется более чем на 20 стран и поддерживает несколько языков, включая английский, французский, немецкий, испанский и другие. На новых устройствах (например, будущая серия Pixel 10 и Galaxy S26) Gemini интегрируется непосредственно в приложение сообщений. Это позволяет системе анализировать не только отдельные фразы, но и контекст общения.
Такой подход особенно важен для борьбы со схемами «романтических» афер и фейковых предложений о работе. В них злоумышленники действуют постепенно, месяцами выстраивая доверие, поэтому традиционные фильтры часто не видят явных признаков угрозы. Локальная ИИ-модель должна распознавать более тонкие признаки манипуляции.








