Опция Contact Poster на iPhone облегчает задачу мошенникам

Опция Contact Poster на iPhone облегчает задачу мошенникам

Опция Contact Poster на iPhone облегчает задачу мошенникам

С выходом iOS 17 пользователи получили возможность задать картинку и имя, которые будут высвечиваться на iPhone, принимающих их вызовы. Специалисты «Яндекса» усмотрели в новой фиче угрозу мошенничества, о чем и предупредили Apple.

Аферисты будут умышленно создавать карточки контактов, вводящие в заблуждение. Подобная визитка способна сделать имитацию звонков из полиции или банка более убедительной — правда, для этого обманщик должен звонить со смартфона под iOS 17.

«Просим вас внести корректировки в алгоритмы работы функции «Постер контакта» таким образом, что постером можно поделиться только в том случае, если контакт владельца постера записан в телефонную книгу другого человека», — сказано в письме «Яндекса» к Apple, с которым ознакомились «Известия».

Потенциальным жертвам обмана рекомендуется обращать внимание не на картинку звонящего, а на его номер. При появлении сомнений лучше уточнить информацию, позвонив по официальному номеру заявленной организации.

О расхождении данных подскажет также пометка «Возможно» или «maybe» на постере. Для верности можно воспользоваться автоматическим определителем номеров от «Яндекса» (нажать «Поделиться контактом» и выбрать «Проверить в Яндексе»).

Кстати, функция «Поделиться контактом» (NameDrop) в iOS 17 тоже вызвала нарекания из-за возможности злоупотреблений. Дело в том, что ее включили по умолчанию, и многие пользователи не знают, что теперь их контактная информация может быть расшарена на iPhone, расположенные по соседству. Отключается NameDrop через настройки (Основные > AirDrop > Объединить устройства).

Пример iOS 17 еще раз подтвердил известную истину: чем больше дополнительных функций в софте, тем выше вероятность ошибок, в том числе тех, что способны составить угрозу для безопасности и приватности пользователя. Примечательно, что после обновления ОС на некоторых iPhone произошел откат настроек до дефолтных, притом без вывода предупреждения.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В ChatGPT нашли семь уязвимостей, сливающих данные пользователей

Исследователи из компании Tenable сообщили о серии уязвимостей, затрагивающих модели GPT-4o и GPT-5, которые лежат в основе ChatGPT. Эти дыры позволяют злоумышленникам похищать личные данные пользователей из памяти и истории переписки бота — без ведома самих пользователей.

Всего специалисты выявили семь векторов атак, часть из которых OpenAI уже устранила. Главная проблема — так называемые «непрямые инъекции промпта» (indirect prompt injection).

С их помощью можно обмануть искусственный интеллект и заставить его выполнять вредоносные инструкции, даже если пользователь ничего не подозревает.

Среди найденных методов — внедрение команд через вредоносные сайты, запросы к ChatGPT с поддельными ссылками или командами, маскированными под разрешённые домены (например, через bing.com), а также скрытие вредоносных инструкций в коде веб-страниц. В одном из сценариев атаки злоумышленник мог «отравить» память ChatGPT, добавив туда свои команды через сайт, который пользователь попросил бота кратко пересказать.

Подобные инъекции не требуют от пользователя кликов или загрузки файлов — достаточно обычного запроса вроде «расскажи, что написано на этом сайте». Если страница уже проиндексирована поисковиком, ИИ мог выполнить вредоносный код автоматически.

 

Tenable отмечает, что такие атаки — проблема не только OpenAI. За последние месяцы исследователи обнаруживали похожие уязвимости в Claude, Copilot, и других ИИ-инструментах. Некоторые позволяли похищать данные, обходить фильтры безопасности или подменять ответы модели.

По словам экспертов, полностью устранить угрозу инъекций промпта в ближайшее время вряд ли удастся. Они рекомендуют разработчикам ИИ-сервисов тщательнее проверять механизмы безопасности и фильтры URL, чтобы свести риски к минимуму.

Не так давно мы рассуждали на тему «можно ли доверять GenAI». Рассматривали галлюцинации и контроль достоверности ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru