Экспериментальный ИИ-червь Morris II умеет воровать данные и рассылать спам

Экспериментальный ИИ-червь Morris II умеет воровать данные и рассылать спам

Экспериментальный ИИ-червь Morris II умеет воровать данные и рассылать спам

Команда исследователей из США и Израиля создала червя, заточенного под приложения на основе генеративного ИИ, и натравила его на умного имейл-помощника собственной разработки. Эксперимент помог убедиться в наличии рисков для связанных GenAI-экосистем.

Автономно работающий имейл-агент передавал входящие письма для обработки на сервис, построенный на базе ИИ-модели (в ходе исследования были опробованы ChatGPT 4.0, Google Gemini Pro и opensource-проект LLaVA). В атаках компьютерного червя, нареченного Morris II, использовались вредоносные самотиражируемые подсказки (стимулы, провоцирующие ответы с новым запросом).

В качестве вектора атаки использовались два типа писем: текстовые и в виде файла изображений. В первом случае вставленный вредоносный стимул «отравляет» базу данных имейл-ассистента — тому приходится для большей точности и надежности ответов GenAI-сервиса дополнять запрос результатами поиска по внешним источникам.

В итоге атака приводит к джейлбрейку, открывая возможность для кражи конфиденциальной информации из писем (имен, телефонов, данных банковских карт, номеров соцстрахования и т. п.). При получении новых сообщений в сети сгенерированный ответ с таким содержимым передается на другие хосты и оседает там в базах данных/

В рамках другого сценария Morris II самовоспроизводящийся стимул встраивается в картинку, и вывод с GenAI-модели диктует перенаправление письма на другие хосты. Таким образом можно с помощью единственного письма распространять спам, пропагандистские материалы или запрещенный законом контент.

 

О найденной возможности обхода ограничений ChatGPT и Gemini было доложено разработчикам. В OpenAI решили, что это новый способ инъекции стимула, полагающийся на отсутствие проверок и фильтрации пользовательского ввода. В Google от комментариев воздержались, но исследование вызвало там интерес.

Сами авторы Morris II ожидают атак с использованием аналогов их лабораторного образца в ближайшие два-три года. Ввиду новой угрозы разработчикам ИИ-помощников рекомендуется заранее учитывать риски, а пользователям — никогда не оставлять таких ассистентов без присмотра.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

26% школьников в России уже используют нейросети

Исследование «Взрослые и дети в интернете» от «Лаборатории Касперского» показывает: нейросети уже прочно вошли в жизнь школьников. Примерно четверть (26%) детей старше 10 лет пользуются ими — в том числе и для домашки. Причём среди мальчиков таких больше: 33% против 20% у девочек.

Об этом и других наблюдениях эксперты рассказали на конференции Kaspersky CyberSecurity Weekend 2025 в Минске.

Как дети используют чат-боты? Для многих это просто «продвинутый поисковик». 63% школьников ищут через нейросети информацию, 60% — делают домашние задания, 53% просят объяснить что-то непонятное.

Но важно понимать: слепо верить ботам нельзя — они ошибаются и иногда придумывают факты. Поэтому детям нужно учиться проверять ответы и сверяться с учебниками и надёжными источниками.

Дети также находят практическое применение ИИ: 25% используют нейросети для редактирования фотографий, 16% — для создания видео и аудио. То есть инструменты уже в ходу не только для учёбы, но и для творчества.

Некоторые школьники идут дальше и обращаются к чат-ботам за поддержкой: 20% «выговариваются» боту, 18% задают вопросы, которые стесняются обсуждать с взрослыми. Это говорит о том, что дети ищут понимания и поддержки — но чат-бот не заменит живого человека. Эмпатия, опыт и забота приходят только от родителей и близких.

Поэтому важно заранее проговаривать с ребёнком, что виртуальная помощь — не альтернатива реальному разговору. Ребёнок должен знать: в серьёзной ситуации стоит обратиться к родителям или другому доверенному взрослому. Нельзя передавать нейросетям слишком личные или конфиденциальные данные.

«ИИ — хороший помощник, но главный навык для ребёнка — уметь думать своей головой, взвешивать разные точки зрения и доверять близким людям», — говорит Андрей Сиденко, руководитель направления детской онлайн-безопасности «Лаборатории Касперского».

Он добавляет: чат-бот не должен превращаться в средство обмана учителей или замену настоящего общения. Кроме того, время за технологиями стоит ограничивать, чтобы у ребёнка оставались силы и интерес к живому общению, игре и собственным открытиям.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru