Бот нового iPhone сдаёт секреты первому встречному

Так называемый "личный секретарь" Siri, которого компания Apple поселила в iPhone 4S, как выяснилось, способен выполнять голосовые команды, даже если телефон заблокирован паролем. К счастью, обойти эту дыру в безопасности несложно.



Siri — это по сути бот (женского, что характерно, пола), который распознаёт речь человека, пытается понять, что тот хочет, и затем выполняет его пожелание. Например, звонит тому или иному абоненту, ищет информацию в Сети, ну или просто пытается поддержать более-менее связный разговор.

Новинка уже успела полюбиться многим новоиспечённым владельцам iPhone 4S, а некоторые даже развлекаются тем, что задают Siri всякие каверзные вопросы и фиксируют её реакцию. Выяснилось, однако, что Siri склонна поболтать не только с владельцем обжитого ею смартфона, но и вообще с кем угодно, пишет Вебпланета.

Оказывается, даже если iPhone 4S заблокирован, а снятие с блокировки требует ввода числового кода или более сложного пароля, это вовсе не значит, что бот не функционирует. Существует совершенно независимая настройка, регулирующая работу Siri в режиме блокировки, и по умолчанию она выставлена, как нетрудно догадаться, в положение "ON".

Иначе говоря, любой (а распознаванию тембра голоса хозяина Siri почему-то не обучили) может воспользоваться оставленным без присмотра "айфоном" и поговорить с Siri по душам. Ей можно дать распоряжение отправить email или, к примеру, поменять расписание встреч — и она послушно выполнит эти распоряжения.

Можно, говорят, также выпытать у неё номера телефонов и другую интересную информацию. Разумеется, нет ничего проще залезть в настройки и добиться того, чтобы Siri впадала в спячку, когда телефон блокируется. Однако какими соображениями руководствовались в Apple, когда изначально наградили этого бота бессонницей — об этом можно только догадываться.

Интересно, что главный андроидовод Энди Рубин (Andy Rubin) по поводу Siri высказался буквально так: "Ваш телефон — это средство общения. Вы не должны общаться с телефоном, вы должны общаться с кем-то, кто находится на другом конце провода".

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Мошенники ускоряют профилирование мишеней с помощью ИИ

Авторы сложных сценариев отъема денег у юрлиц стали использовать ИИ, чтобы ускорить сбор данных о намеченных жертвах. В RTM Group зафиксировали сотни случаев хорошо подготовленных атак на малый и средний бизнес.

Сама мошенническая схема выглядит, как BEC-атака, только вместо имейл используются мессенджер (в данном случае Telegram) и телефонная связь. Применение ИИ, по оценке экспертов, позволило повысить эффективность обмана на 40%; при этом преступный доход ОПГ средней величины (10 участников) может ежедневно составлять от 1 млн до нескольких десятков млн рублей.

В ходе подготовки злоумышленники, вооружившись ИИ, собирают информацию из слитых в Сеть баз. Найдя совпадения по месту работы и совместным счетам, они разбивают мишени на пары: владелец – управляющий компании, гендиректор – его зам, директор – главбух и т. п.

Затем в Telegram создаются поддельные аккаунты лидеров каждой пары, и боты начинают слать сообщения от их имени, вовлекая подчиненных в диалог. В качестве темы обычно используются непорядочность знакомых / клиентов либо мифическая проверка со стороны правоохраны (к примеру, ФСБ).

Сообщения бота могут содержать фамилии реальных представителей госорганов, скриншоты специально составленных документов. После такой обработки следует звонок персоны, упоминавшейся в ходе беседы.

Лжеревизор начинает задавать вопросы о случаях мошенничества, долгах, неких платежах, пытаясь определить финансовую проблему, которую можно использовать как предлог для выманивания денег переводом на левый счет.

«Основной рекомендацией по минимизации рисков является постоянное внимание к деталям в ходе виртуального общения с партнерами по бизнесу и сотрудниками, особенно когда речь идет о проблемах с законом, переводах финансовых средств, проверках компетентных органов, — заявили эксперты «Известиям». — Также специалисты RTM Group рекомендуют не выкладывать в публичный доступ прямые контакты руководителей компаний и департаментов».

На днях мы анализировали «злые» аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT. Рассказали, в чём состоит опасность и как с нею бороться.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru