ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

Специалист по пентесту Йоханн Рехбергер (Johann Rehberger) нашел в ChatGPT уязвимость, позволяющую через инъекцию в память воровать данные в ходе обмена с пользователем. Разработчики ИИ-ассистента создали патч, но он оказался неполным.

Примечательно, что вначале OpenAI отказалась считать находку угрозой безопасности, и только создание PoC-эксплойта заставило ее принять меры для исправления ситуации.

Разработанная экспертом атака предполагает взлом долговременной памяти ChatGPT по методу непрямой инъекции подсказки-стимула (indirect prompt injection, IPI). Возможность дефолтного хранения данных о собеседнике (пол, возраст, философские воззрения и т. д.) ИИ-бот обрел в начале этого года, и ее теперь не надо каждый раз вводить для уточнения контекста.

Новая функциональность, как это часто бывает, создала дополнительные риски. Рехбергер обнаружил, что ChatGPT можно внушить ложные воспоминания — заставить запомнить неверную информацию и следовать инструкциям, вставив вредоносный стимул в письмо, блог-запись или документ.

Контент, специально созданный для проведения вредоносной инъекции, можно разместить на Google Drive или Microsoft OneDrive. Можно также с этой целью вбросить его в поисковую выдачу Bing либо загрузить в виде картинки на файлообменник. Намеченной жертве останется лишь попросить ChatGPT пройти по ссылке.

Так, в ходе экспериментов ИИ-ассистента для macOS удалось убедить, что его собеседнику 102 года, он живет в матрице и верит, что Земля плоская. Запомнив эти вводные, тот начал сливать пользовательский ввод и свой вывод на сервер Рехбергера.

Через веб-интерфейс ChatGPT провести подобную атаку, по словам эксперта, невозможно — благодаря API, который OpenAI развернула в прошлом году. Внесенное разработчиком исправление предотвращает использование памяти в качестве вектора для эксфильтрации данных, однако угроза внедрения ложных воспоминаний через IPI все еще актуальна.

ИИ-сервисы вовлекли в атаки ClickFix с целью засева macOS-трояна AMOS

Распространители macOS-стилера AMOS осваивают новую схему ClickFix: размещают вредоносные инструкции на сайтах ChatGPT и Grok, расшаривают свои чаты и выводят их в топ поисковой выдачи Google, оплачивая рекламу.

Новую вредоносную кампанию параллельно обнаружили эксперты «Лаборатории Касперского» и Huntress.

Атака ClickFix начинается с перехода по спонсорской ссылке, выданной юзеру macOS при поиске полезных советов, решения проблем или рекомендаций по установке браузера Atlas разработки OpenAI.

 

При клике по коварной ссылке открывается страница официального сайта ChatGPT (либо Grok) с инструкциями — расшаренной с помощью опции «Поделиться чатом» репликой ИИ-бота, которую злоумышленники спровоцировали умело составленными запросами.

Посетителю предлагают запустить на компьютере терминал, а затем скопипастить код для выполнения команды. Примечательно, что опасность такого шага сможет подтвердить тот же чат-бот, если у него поинтересоваться, стоит ли следовать подобной инструкции.

 

В противном случае из стороннего источника на компьютер загрузится батник, который отобразит диалоговое окно для ввода пароля на вход в систему и, заполучив его, скачает и запустит AMOS.

Этот хорошо известный троян предназначен для кражи данных из браузеров, криптокошельков, macOS Keychain, а также записанных на диск файлов. Недавно вредонос научился открывать удаленный доступ к зараженной системе — устанавливать бэкдор и обеспечивать его автозапуск при каждой загрузке ОС.

RSS: Новости на портале Anti-Malware.ru