Apple Intelligence станет платным через три года

Apple Intelligence станет платным через три года

Apple Intelligence станет платным через три года

Плата за использование новых функций iOS/iPadOS и macOS, которые были представлены на WWDC 2024, будет взиматься, но не раньше, чем через три года.

По оценкам аналитиков Counterpoint Research, которые были обнародованы на прошлой неделе, стоимость за их использование может составить до 20 долларов в месяц.

Партнер Counterpoint Research Нил Шах 8 августа сообщил CNBC, что Apple будет взимать с пользователей от 10 до 20 долларов в месяц за использование функций Apple Intelligence с искусственным интеллектом.

Таким образом Apple будет пытаться возместить существенные затраты на разработку систем с искусственным интеллектом. Кроме того, по мнению аналитиков, повлиял успешный опыт OpenAI и Microsoft, которые раньше предложили пользователям своих сервисов оплачивать дополнительные функции из числа премиальных.

Как сообщило издание 9to5Mac со ссылкой на корреспондента Bloomberg Марка Гурмана, Apple будет требовать плату за отдельные функции Apple Intelligence, включая обновленный голосовой помощник Siri, Genmoji, Image Playground, а также новые функции приложений из базовой поставки операционных систем, но не сразу, а не раннее чем через три года.

Источники Гурмана в Apple сообщили, что на нынешней стадии развития новых функций, которые существенно уступают лидерам, взимать за них плату было бы «откровенной глупостью».

Чтобы доработать имеющиеся и включить востребованные новые функции, по оценке Марка Гурмана, Apple понадобится не менее трех лет.

На прошлой неделе мы писали, что Apple Intelligence не может отличить фишинговые письма от безобидных. Рекомендуем к прочтению также статью «Apple Intelligence: ИИ-прорыв или кошмар для конфиденциальности владельцев iPhone?», в которой рассуждаем, какие риски для конфиденциальности владельцев iPhone несёт персональный ИИ-помощник.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru