Apple Intelligence станет платным через три года

Apple Intelligence станет платным через три года

Apple Intelligence станет платным через три года

Плата за использование новых функций iOS/iPadOS и macOS, которые были представлены на WWDC 2024, будет взиматься, но не раньше, чем через три года.

По оценкам аналитиков Counterpoint Research, которые были обнародованы на прошлой неделе, стоимость за их использование может составить до 20 долларов в месяц.

Партнер Counterpoint Research Нил Шах 8 августа сообщил CNBC, что Apple будет взимать с пользователей от 10 до 20 долларов в месяц за использование функций Apple Intelligence с искусственным интеллектом.

Таким образом Apple будет пытаться возместить существенные затраты на разработку систем с искусственным интеллектом. Кроме того, по мнению аналитиков, повлиял успешный опыт OpenAI и Microsoft, которые раньше предложили пользователям своих сервисов оплачивать дополнительные функции из числа премиальных.

Как сообщило издание 9to5Mac со ссылкой на корреспондента Bloomberg Марка Гурмана, Apple будет требовать плату за отдельные функции Apple Intelligence, включая обновленный голосовой помощник Siri, Genmoji, Image Playground, а также новые функции приложений из базовой поставки операционных систем, но не сразу, а не раннее чем через три года.

Источники Гурмана в Apple сообщили, что на нынешней стадии развития новых функций, которые существенно уступают лидерам, взимать за них плату было бы «откровенной глупостью».

Чтобы доработать имеющиеся и включить востребованные новые функции, по оценке Марка Гурмана, Apple понадобится не менее трех лет.

На прошлой неделе мы писали, что Apple Intelligence не может отличить фишинговые письма от безобидных. Рекомендуем к прочтению также статью «Apple Intelligence: ИИ-прорыв или кошмар для конфиденциальности владельцев iPhone?», в которой рассуждаем, какие риски для конфиденциальности владельцев iPhone несёт персональный ИИ-помощник.

Android запретит доступ к экрану «лишним» приложениям

Google, похоже, готовит ещё одно нововведение по части безопасности Android. В тестовой сборке Android Canary 2602 обнаружена новая функция для Advanced Protection Mode — режима «максимальной защиты», который компания представила в Android 16.

Теперь Advanced Protection Mode может ограничивать работу приложений, использующих AccessibilityService API, если они не классифицированы как инструменты для доступности.

AccessibilityService API — это мощный механизм Android, изначально созданный для помощи людям с ограниченными физическими возможностями. С его помощью приложения могут читать содержимое экрана, отслеживать действия пользователя и даже выполнять жесты от его имени.

Именно поэтому этот API часто становился инструментом атакующих. За последние годы многие приложения — от автоматизаторов и лаунчеров до «оптимизаторов» и антивирусов — использовали его для обхода системных ограничений. Формально ради удобства, однако на деле получая очень широкие права.

Google постепенно ужесточала политику. Приложения, действительно предназначенные для помощи людям с ограниченными возможностями, должны указывать специальный атрибут isAccessibilityTool. К ним относятся экранные дикторы, системы управления жестами, голосовой ввод, брайлевские интерфейсы и другие специализированные инструменты.

По данным аналитиков, в новой версии Android Canary  при включении Advanced Protection Mode система:

  • запрещает выдавать разрешение Accessibility Service приложениям, не признанным Accessibility Tools;
  • автоматически отзывает уже выданные разрешения у таких приложений.

Если приложение сильно зависит от этого API, оно просто перестанет работать.

В тестах, например, приложение dynamicSpot (эмулирующее Dynamic Island на Android) становилось недоступным: пункт был с пометкой «Restricted by Advanced Protection». Причина простая: оно использует AccessibilityService для чтения уведомлений и отображения поверх других приложений.

Инструменты, официально классифицированные как средства доступности, под ограничения не попадают.

RSS: Новости на портале Anti-Malware.ru