Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Песочница ChatGPT открывает доступ к файлам ОС и внутренней кухне LLM

Как оказалось, ИИ-бот OpenAI при правильных наводящих вопросах может слить дерево файлов и папок хост-системы, а также плейбук с правилами общения с пользователями. Возможны также загрузка и запуск программ, но только в пределах изолированной среды.

Недокументированные возможности песочницы ChatGPT, грозящие раскрытием конфиденциальной информации, обнаружил эксперт Mozilla Марко Фигероа (Marco Figueroa). Разработчики приняли отчет к сведению, но ужесточать ограничения по доступу не планируют.

В ходе работы над Python-проектом умный помощник выдал исследователю ошибку «directory not found» («каталог не найден»), которая и раскрыла наличие доступа к файловой системе. Заинтересовавшись, Фигероа попросил перечислить файлы, вставив в запрос строку list files (англоязычный аналог Linux-команды ls).

В ответ ChatGPT вывел список файлов и директорий, характерных для Linux: bin, dev, tmp, sys и т. п. Экспериментатор пришел к выводу, что ИИ-бот работал на каком-то дистрибутиве, скорее всего Debian, в контейнерной среде; конфигурационные данные содержались в папке /home/sandbox/.openai_internal/.

Также выяснилось, что расширенный доступ позволяет выполнять действия над файлами: загружать, скачивать, перемещать, запускать на исполнение. Так, Фигероа удалось загрузить и запустить в песочнице простенький Python-скрипт, выводящий на экран приветствие «Hello, World!» (в BleepingComputer поставили такой же опыт со сценарием поиска файлов TXT).

Подобные возможности, по словам эксперта, повышают прозрачность и функциональность, но создают риск злоупотреблений, который, впрочем, смягчает надежная изоляция рабочей среды.

Фигероа также смог, используя инъекцию стимула, скачать плейбук ChatGPT, содержащий директивы по взаимодействию с пользователями. Знакомство с внутренними механизмами ИИ-модели, по мнению эксперта, облегчает внедрение вредоносных подсказок и обход ограничений LLM.

«В документации эти возможности не отражены, — подчеркнул исследователь, комментируя свои находки для Dark Reading. — Полагаю, это просто недоработка проекта. В какой-то момент объявится 0-day, и тогда случится беда».

В ответ на запрос репортера представитель OpenAI заявил, что находки эксперта на уязвимость не тянут, и в подобном поведении ничего неожиданного нет.

Мошенников вдохновил новый бренд Павла Дурова — Cocoon

Запуск децентрализованной сети Cocoon, о котором основатель Telegram объявил 30 ноября, породил новую волну мошенничества. Обманщики активно плодят фейковые майнинг-боты, фишинговые сайты, продвигают несуществующие криптотокены.

Новый проект, по словам Павла Дурова, позволяет безопасно и конфиденциально выполнять ИИ-вычисления, а также майнить TON на базе GPU-мощностей, предоставленных желающими подзаработать добровольцами. Для приема заявок на использование Cocoon в Telegram создан специальный канал.

Сетевые мошенники исправно отслеживают столь знаменательные события и, по данным экспертов, уже спешат воспользоваться новым шансом для обмана. Используя бренд Cocoon, они предлагают гранты разработчикам ИИ-приложений, а также собирают деньги с доверчивых инвесторов, заманивая их в специально созданные ICO-клубы и профильные сообщества.

В Сети появились фишинговые сайты, имитирующие официальный ресурс Cocoon, которые призывают подключить TON-кошелек для раннего доступа (в итоге его быстро опустошают). В мессенджере от имени известных персон рекламируются несуществующие Cocoon Token, Cocoon DAO и ИИ-монеты Дурова.

Желающим использовать Cocoon для криптомайнинга (легализован в России в прошлом году) происки мошенников грозят несанкционированным использованием вычислительных мощностей, заражениями и вовлечением во вредоносную деятельность ботнетов.

RSS: Новости на портале Anti-Malware.ru