ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

Специалист по пентесту Йоханн Рехбергер (Johann Rehberger) нашел в ChatGPT уязвимость, позволяющую через инъекцию в память воровать данные в ходе обмена с пользователем. Разработчики ИИ-ассистента создали патч, но он оказался неполным.

Примечательно, что вначале OpenAI отказалась считать находку угрозой безопасности, и только создание PoC-эксплойта заставило ее принять меры для исправления ситуации.

Разработанная экспертом атака предполагает взлом долговременной памяти ChatGPT по методу непрямой инъекции подсказки-стимула (indirect prompt injection, IPI). Возможность дефолтного хранения данных о собеседнике (пол, возраст, философские воззрения и т. д.) ИИ-бот обрел в начале этого года, и ее теперь не надо каждый раз вводить для уточнения контекста.

Новая функциональность, как это часто бывает, создала дополнительные риски. Рехбергер обнаружил, что ChatGPT можно внушить ложные воспоминания — заставить запомнить неверную информацию и следовать инструкциям, вставив вредоносный стимул в письмо, блог-запись или документ.

Контент, специально созданный для проведения вредоносной инъекции, можно разместить на Google Drive или Microsoft OneDrive. Можно также с этой целью вбросить его в поисковую выдачу Bing либо загрузить в виде картинки на файлообменник. Намеченной жертве останется лишь попросить ChatGPT пройти по ссылке.

Так, в ходе экспериментов ИИ-ассистента для macOS удалось убедить, что его собеседнику 102 года, он живет в матрице и верит, что Земля плоская. Запомнив эти вводные, тот начал сливать пользовательский ввод и свой вывод на сервер Рехбергера.

Через веб-интерфейс ChatGPT провести подобную атаку, по словам эксперта, невозможно — благодаря API, который OpenAI развернула в прошлом году. Внесенное разработчиком исправление предотвращает использование памяти в качестве вектора для эксфильтрации данных, однако угроза внедрения ложных воспоминаний через IPI все еще актуальна.

Глава кибербеза США бездумно слил служебные документы в ChatGPT

Возглавив Федеральное агентство кибербезопасности (CISA, подразделение МВД США), временщик Мадху Готтумуккала (Madhu Gottumukkala) запросил доступ к заблокированному ChatGPT и доверил публичному сервису конфиденциальные данные.

К счастью, ни один из загруженных документов не был помечен грифом «секретно», утекла лишь информация, предназначенная для служебного пользования.

Ее слив вызвал срабатывание сетевой защиты CISA и последующую оценку возможного ущерба. Данные, доверяемые ChatGPT, оседают лишь на серверах OpenAI и не должны попадать в паблик, однако они могут быть всплыть в ответах на запросы других пользователей, число которых уже превысило 700 миллионов.

По этой причине доступ к ChatGPT в американском министерстве по умолчанию блокируется. Вместо него сотрудники используют самопальный DHSChat с усиленной защитой от утечек.

Репортер Politico не без капли яда отметил, что до назначения на высокий пост Готтумуккала имел дело с ИТ лишь в качестве айтишника высокого ранга в администрации Южной Дакоты, и слив на сторону конфиденциальных данных — не единственный показатель его безграмотности в отношении ИБ.

Минувшим летом новоиспеченный и. о. главы CISA решил, что ему не помешает доступ к данным киберразведки, и даже согласился пройти специальную проверку на полиграфе. Провалив тест, индиец от злости начал увольнять всех направо и налево, а также попытался избавиться от ИТ-директора, принимавшего участие в расследовании инцидента с ChatGPT.

Эмоциональная и болезненная реакция предводителя на собственный фейл возмутила его подчиненных. В комментарии для новостного издания один из функционеров CISA заявил, что пребывание Готтумуккалы в новой должности — пока сплошной кошмар.

RSS: Новости на портале Anti-Malware.ru