Android получит ИИ-функцию, которая предугадывает действия пользователя

Android получит ИИ-функцию, которая предугадывает действия пользователя

Android получит ИИ-функцию, которая предугадывает действия пользователя

Google продолжает активно прокачивать ИИ в Android. Следующий шаг, по замыслу корпорации, — смартфон, который пытается угадать, что вы собираетесь делать, и готовится к этому заранее. В настоящее время в мобильной операционной системе тестируется новая функция под названием Contextual Suggestions.

Идея простая: Android анализирует контекст — место, время и привычные сценарии — и сам предлагает нужные действия. Причём не в формате уведомлений, а сразу «по делу».

Например, вы выходите к машине — смартфон сам открывает плейлист и Google Карты; приходите в спортзал — загружается любимая музыка; вечером дома — контент автоматически отправляется на телевизор.

Звучит удобно, особенно если вы и так каждый раз делаете одно и то же. В этом смысле Android просто пытается сэкономить вам пару лишних движений.

Как отмечает Android Authority, Google делает акцент на конфиденциальности:

  • обработка данных происходит локально на устройстве;
  • информация шифруется;
  • данные автоматически удаляются через 60 дней (или вручную — в любой момент);
  • функцию можно полностью отключить, если идея кажется слишком навязчивой.

Для запуска Contextual Suggestions потребуется больше контроля над системой — и это, конечно, подойдёт не всем. Сейчас функция доступна лишь в бета-версии Google Play Services (25.49.32). Найти её можно в настройках:

All services → Others → Contextual Suggestions — при условии, что у вас установлен beta-канал.

 

Интересно, что Google уже пробовала нечто подобное. В линейке Pixel компания экспериментировала с функцией Magic Cue — идея была отличная, но на практике работала нестабильно и часто промахивалась.

Станут ли Contextual Suggestions более точными — большой вопрос. Но если Google действительно сможет сделать подсказки ненавязчивыми и полезными, Android сделает шаг в сторону по-настоящему «умного» смартфона.

Наталья Касперская: ИИ нельзя пускать в образование и госуправление

ИИ нельзя превращать в универсальный ответ на все вопросы — особенно там, где на кону люди, данные и здравый смысл. Об этом заявила Наталья Касперская, президент группы компаний InfoWatch и председатель правления ассоциации «Отечественный софт», в эфире радио «Комсомольская правда».

В большом разговоре она прошлась по самым болезненным темам — от импортозамещения и утечек данных до мошенников, дипфейков и рисков тотальной цифровизации.

По словам Касперской, санкционное давление продолжает усиливаться: зарубежные вендоры отказываются подписывать сертификаты, и в какой-то момент софт, работающий на иностранных операционных системах, может просто перестать функционировать.

Но катастрофы, по её мнению, нет. В реестре отечественного ПО — более 29 тысяч продуктов, а среди операционных систем уже есть проверенные варианты: Astra Linux, ALT Linux, «РЕД ОС» и ROSA, а для мобильных устройств — KasperskyOS и «Аврора». Крупные компании начали массово переходить на них после 2022 года.

Полной замены иностранного промышленного ПО пока нет, но и критической зависимости, при которой «станок нельзя перевезти», тоже уже не наблюдается.

Одна из самых тревожных тем — мошенничество. Несмотря на принятый закон о борьбе с аферистами, 2025 год снова может стать рекордным по сумме украденных средств. Причина проста: старые схемы перестают работать, зато появляются новые — сложные и многоходовые.

Сегодня мошенники активно используют:

Главное правило, которое напомнила Касперская: наши ведомства не звонят. Любой «срочный звонок от государства» — повод насторожиться.

По оценкам, за прошлый год утекло более 1,5 млрд записей персональных данных. Это значит, что информация о каждом россиянине «утекала» в среднем не один раз. И ситуация, по мнению Касперской, будет только ухудшаться.

Она резко раскритиковала идею расширения государственных регистров, в том числе регистра заболеваний, где будут фигурировать психиатрические диагнозы, беременность и онкология. Такие базы, уверена она, практически гарантированно станут добычей мошенников.

«Чем больше данных — тем больше утечек. А человеческий фактор не победить никакими техническими мерами», — подчеркнула Касперская.

Касперская призвала не демонизировать искусственный интеллект, но и не обожествлять его. По её словам, генеративный ИИ опасен там, где нужна стопроцентная точность.

Под запрет, по её мнению, должны попасть образование, госуправление и законотворчество. Причина проста: генеративный ИИ всегда выдаёт вероятностный ответ и может «галлюцинировать». В образовании это приводит к тому, что дети перестают думать, а просто копируют ответы, не понимая смысла.

Зато в технических и прикладных сферах ИИ действительно незаменим: промышленная безопасность, предотвращение аварий, мониторинг инфраструктуры, сельское хозяйство и прогнозирование.

Главный вывод Касперской звучит предельно ясно: бояться стоит не искусственного интеллекта, а людей, которые используют его во вред.

ИИ — всего лишь инструмент. И вопрос не в том, сколько процентов процессов им «оцифровать», а в том, где он действительно уместен, а где его появление может обернуться новыми рисками — для общества, безопасности и здравого смысла.

RSS: Новости на портале Anti-Malware.ru