ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

Специалист по пентесту Йоханн Рехбергер (Johann Rehberger) нашел в ChatGPT уязвимость, позволяющую через инъекцию в память воровать данные в ходе обмена с пользователем. Разработчики ИИ-ассистента создали патч, но он оказался неполным.

Примечательно, что вначале OpenAI отказалась считать находку угрозой безопасности, и только создание PoC-эксплойта заставило ее принять меры для исправления ситуации.

Разработанная экспертом атака предполагает взлом долговременной памяти ChatGPT по методу непрямой инъекции подсказки-стимула (indirect prompt injection, IPI). Возможность дефолтного хранения данных о собеседнике (пол, возраст, философские воззрения и т. д.) ИИ-бот обрел в начале этого года, и ее теперь не надо каждый раз вводить для уточнения контекста.

Новая функциональность, как это часто бывает, создала дополнительные риски. Рехбергер обнаружил, что ChatGPT можно внушить ложные воспоминания — заставить запомнить неверную информацию и следовать инструкциям, вставив вредоносный стимул в письмо, блог-запись или документ.

Контент, специально созданный для проведения вредоносной инъекции, можно разместить на Google Drive или Microsoft OneDrive. Можно также с этой целью вбросить его в поисковую выдачу Bing либо загрузить в виде картинки на файлообменник. Намеченной жертве останется лишь попросить ChatGPT пройти по ссылке.

Так, в ходе экспериментов ИИ-ассистента для macOS удалось убедить, что его собеседнику 102 года, он живет в матрице и верит, что Земля плоская. Запомнив эти вводные, тот начал сливать пользовательский ввод и свой вывод на сервер Рехбергера.

Через веб-интерфейс ChatGPT провести подобную атаку, по словам эксперта, невозможно — благодаря API, который OpenAI развернула в прошлом году. Внесенное разработчиком исправление предотвращает использование памяти в качестве вектора для эксфильтрации данных, однако угроза внедрения ложных воспоминаний через IPI все еще актуальна.

Роботакси Baidu зависли и оставили пассажиров стоять в пробках

В китайском Ухане у Baidu произошёл крупный сбой в работе роботакси Apollo Go. По данным местной полиции, из-за системной неисправности на дорогах одновременно остановились более 100 беспилотных машин. Часть из них встала прямо посреди движения, из-за чего пассажиры оказались заблокированы в салоне, а на дорогах начались заторы и аварийные ситуации.

Судя по сообщениям очевидцев и публикациям в соцсетях, некоторые роботакси замирали прямо на скоростных магистралях и эстакадах, в том числе в быстрых полосах.

Одна из пассажирок рассказала WIRED, что вместе с друзьями провела в таком автомобиле около полутора часов: машина несколько раз давала сбой, а затем окончательно остановилась у перекрёстка. На экране появилось сообщение с просьбой оставаться внутри и ждать представителя компании, но помощь так и не приехала. В итоге пассажиры просто вышли сами.

Отдельное раздражение у людей вызвала поддержка. По словам пассажиров, дозвониться до сервиса было сложно, а кнопка SOS в отдельных случаях вообще не помогала. Некоторые пользователи писали, что им пришлось самостоятельно выбираться из машины, пока сзади уже скапливался поток.

Без ДТП тоже не обошлось. По данным AP и WIRED, пострадавших не было, но в соцсетях появлялись сообщения как минимум о нескольких столкновениях с остановившимися роботакси.

Один из водителей, например, рассказал, что врезался в машину Apollo Go после того, как ехавший впереди автомобиль резко перестроился, чтобы её объехать.

Сама Baidu в феврале сообщала, что её роботакси уже выполнили 20 млн поездок и проехали более 300 млн километров, а сервисы компании работают более чем в десятке городов Китая и выходят на зарубежные рынки, включая Абу-Даби, Дубай и Сеул.

RSS: Новости на портале Anti-Malware.ru