Call Screening в iOS 26: iPhone сам спросит, кто и зачем звонит

Call Screening в iOS 26: iPhone сам спросит, кто и зачем звонит

Call Screening в iOS 26: iPhone сам спросит, кто и зачем звонит

Если вы поставили бета-версию iOS 26 на iPhone и при этом страдали от спама и робозвонков, могли заметить, что функция «Заглушать неизвестные вызовы» (Silence Unknown Callers) куда-то пропала. Но теперь, с выходом новой беты iOS 26, она вернулась — и стала даже лучше. Теперь это часть новой функции Call Screening.

Что делает Call Screening?

Очень удобная штука: если включена, iPhone сам будет отвечать на вызовы с незнакомых номеров, спрашивать у звонящего, зачем он звонит, и на основе этого решать — стоит ли вообще передавать вызов пользователю.

Если звонок пропущен, ты увидишь, что ответил бот, и что сказал человек на том конце. Такая функциональность помогает понять: это важный звонок или очередной спам.

В настройках теперь три варианта:

  • Никогда (Never): все номера, даже неизвестные, будут звонить как обычно.
  • Спросить причину звонка (Ask Reason for Calling): звонок перехватывает система, спрашивает, кто и зачем, а уже потом решает, стоит ли тебя тревожить.
  • Заглушить (Silence): вызов просто молча отправляется в голосовую почту и попадает в список пропущенных.

Источник: 9to5Mac

 

Важно: во втором и третьем вариантах могут применяться тарифы на передачу данных или звонки, особенно если пользователь не в сети Wi-Fi.

Call Screening — одна из главных новинок в приложении «Телефон» в iOS 26. Там же появятся функции Hold Assist (помогает не слушать музыку в ожидании ответа) и Live Translation (перевод звонков в реальном времени).

Полезно и, честно говоря, давно напрашивалось.

Ранее в этом месяце мы писали, что FaceTime в iOS 26 блокирует звонок при попытке раздеться в кадре. Что происходит: если камера зафиксирует нечто похожее на обнажённое тело, звонок замирает — и видео, и звук. А на экране появляется предупреждение с двумя вариантами: либо продолжить разговор, либо сразу завершить его.

Кроме того, в iOS 26 и macOS Tahoe обещают расширить автозаполнение 2FA-кодов на сторонний софт.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru