Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Как оказалось, ИИ-бот OpenAI при правильных наводящих вопросах может слить дерево файлов и папок хост-системы, а также плейбук с правилами общения с пользователями. Возможны также загрузка и запуск программ, но только в пределах изолированной среды.

Недокументированные возможности песочницы ChatGPT, грозящие раскрытием конфиденциальной информации, обнаружил эксперт Mozilla Марко Фигероа (Marco Figueroa). Разработчики приняли отчет к сведению, но ужесточать ограничения по доступу не планируют.

В ходе работы над Python-проектом умный помощник выдал исследователю ошибку «directory not found» («каталог не найден»), которая и раскрыла наличие доступа к файловой системе. Заинтересовавшись, Фигероа попросил перечислить файлы, вставив в запрос строку list files (англоязычный аналог Linux-команды ls).

В ответ ChatGPT вывел список файлов и директорий, характерных для Linux: bin, dev, tmp, sys и т. п. Экспериментатор пришел к выводу, что ИИ-бот работал на каком-то дистрибутиве, скорее всего Debian, в контейнерной среде; конфигурационные данные содержались в папке /home/sandbox/.openai_internal/.

Также выяснилось, что расширенный доступ позволяет выполнять действия над файлами: загружать, скачивать, перемещать, запускать на исполнение. Так, Фигероа удалось загрузить и запустить в песочнице простенький Python-скрипт, выводящий на экран приветствие «Hello, World!» (в BleepingComputer поставили такой же опыт со сценарием поиска файлов TXT).

Подобные возможности, по словам эксперта, повышают прозрачность и функциональность, но создают риск злоупотреблений, который, впрочем, смягчает надежная изоляция рабочей среды.

Фигероа также смог, используя инъекцию стимула, скачать плейбук ChatGPT, содержащий директивы по взаимодействию с пользователями. Знакомство с внутренними механизмами ИИ-модели, по мнению эксперта, облегчает внедрение вредоносных подсказок и обход ограничений LLM.

«В документации эти возможности не отражены, — подчеркнул исследователь, комментируя свои находки для Dark Reading. — Полагаю, это просто недоработка проекта. В какой-то момент объявится 0-day, и тогда случится беда».

В ответ на запрос репортера представитель OpenAI заявил, что находки эксперта на уязвимость не тянут, и в подобном поведении ничего неожиданного нет.

ИИ-сервисы вовлекли в атаки ClickFix с целью засева macOS-трояна AMOS

Распространители macOS-стилера AMOS осваивают новую схему ClickFix: размещают вредоносные инструкции на сайтах ChatGPT и Grok, расшаривают свои чаты и выводят их в топ поисковой выдачи Google, оплачивая рекламу.

Новую вредоносную кампанию параллельно обнаружили эксперты «Лаборатории Касперского» и Huntress.

Атака ClickFix начинается с перехода по спонсорской ссылке, выданной юзеру macOS при поиске полезных советов, решения проблем или рекомендаций по установке браузера Atlas разработки OpenAI.

 

При клике по коварной ссылке открывается страница официального сайта ChatGPT (либо Grok) с инструкциями — расшаренной с помощью опции «Поделиться чатом» репликой ИИ-бота, которую злоумышленники спровоцировали умело составленными запросами.

Посетителю предлагают запустить на компьютере терминал, а затем скопипастить код для выполнения команды. Примечательно, что опасность такого шага сможет подтвердить тот же чат-бот, если у него поинтересоваться, стоит ли следовать подобной инструкции.

 

В противном случае из стороннего источника на компьютер загрузится батник, который отобразит диалоговое окно для ввода пароля на вход в систему и, заполучив его, скачает и запустит AMOS.

Этот хорошо известный троян предназначен для кражи данных из браузеров, криптокошельков, macOS Keychain, а также записанных на диск файлов. Недавно вредонос научился открывать удаленный доступ к зараженной системе — устанавливать бэкдор и обеспечивать его автозапуск при каждой загрузке ОС.

RSS: Новости на портале Anti-Malware.ru