ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

ИИ-помощника ChatGPT вынудили сливать беседы, внушив ложные воспоминания

Специалист по пентесту Йоханн Рехбергер (Johann Rehberger) нашел в ChatGPT уязвимость, позволяющую через инъекцию в память воровать данные в ходе обмена с пользователем. Разработчики ИИ-ассистента создали патч, но он оказался неполным.

Примечательно, что вначале OpenAI отказалась считать находку угрозой безопасности, и только создание PoC-эксплойта заставило ее принять меры для исправления ситуации.

Разработанная экспертом атака предполагает взлом долговременной памяти ChatGPT по методу непрямой инъекции подсказки-стимула (indirect prompt injection, IPI). Возможность дефолтного хранения данных о собеседнике (пол, возраст, философские воззрения и т. д.) ИИ-бот обрел в начале этого года, и ее теперь не надо каждый раз вводить для уточнения контекста.

Новая функциональность, как это часто бывает, создала дополнительные риски. Рехбергер обнаружил, что ChatGPT можно внушить ложные воспоминания — заставить запомнить неверную информацию и следовать инструкциям, вставив вредоносный стимул в письмо, блог-запись или документ.

Контент, специально созданный для проведения вредоносной инъекции, можно разместить на Google Drive или Microsoft OneDrive. Можно также с этой целью вбросить его в поисковую выдачу Bing либо загрузить в виде картинки на файлообменник. Намеченной жертве останется лишь попросить ChatGPT пройти по ссылке.

Так, в ходе экспериментов ИИ-ассистента для macOS удалось убедить, что его собеседнику 102 года, он живет в матрице и верит, что Земля плоская. Запомнив эти вводные, тот начал сливать пользовательский ввод и свой вывод на сервер Рехбергера.

Через веб-интерфейс ChatGPT провести подобную атаку, по словам эксперта, невозможно — благодаря API, который OpenAI развернула в прошлом году. Внесенное разработчиком исправление предотвращает использование памяти в качестве вектора для эксфильтрации данных, однако угроза внедрения ложных воспоминаний через IPI все еще актуальна.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

26% школьников в России уже используют нейросети

Исследование «Взрослые и дети в интернете» от «Лаборатории Касперского» показывает: нейросети уже прочно вошли в жизнь школьников. Примерно четверть (26%) детей старше 10 лет пользуются ими — в том числе и для домашки. Причём среди мальчиков таких больше: 33% против 20% у девочек.

Об этом и других наблюдениях эксперты рассказали на конференции Kaspersky CyberSecurity Weekend 2025 в Минске.

Как дети используют чат-боты? Для многих это просто «продвинутый поисковик». 63% школьников ищут через нейросети информацию, 60% — делают домашние задания, 53% просят объяснить что-то непонятное.

Но важно понимать: слепо верить ботам нельзя — они ошибаются и иногда придумывают факты. Поэтому детям нужно учиться проверять ответы и сверяться с учебниками и надёжными источниками.

Дети также находят практическое применение ИИ: 25% используют нейросети для редактирования фотографий, 16% — для создания видео и аудио. То есть инструменты уже в ходу не только для учёбы, но и для творчества.

Некоторые школьники идут дальше и обращаются к чат-ботам за поддержкой: 20% «выговариваются» боту, 18% задают вопросы, которые стесняются обсуждать с взрослыми. Это говорит о том, что дети ищут понимания и поддержки — но чат-бот не заменит живого человека. Эмпатия, опыт и забота приходят только от родителей и близких.

Поэтому важно заранее проговаривать с ребёнком, что виртуальная помощь — не альтернатива реальному разговору. Ребёнок должен знать: в серьёзной ситуации стоит обратиться к родителям или другому доверенному взрослому. Нельзя передавать нейросетям слишком личные или конфиденциальные данные.

«ИИ — хороший помощник, но главный навык для ребёнка — уметь думать своей головой, взвешивать разные точки зрения и доверять близким людям», — говорит Андрей Сиденко, руководитель направления детской онлайн-безопасности «Лаборатории Касперского».

Он добавляет: чат-бот не должен превращаться в средство обмана учителей или замену настоящего общения. Кроме того, время за технологиями стоит ограничивать, чтобы у ребёнка оставались силы и интерес к живому общению, игре и собственным открытиям.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru