Новый вектор кражи данных: скрытые инструкции в изображениях для ИИ

Новый вектор кражи данных: скрытые инструкции в изображениях для ИИ

Новый вектор кражи данных: скрытые инструкции в изображениях для ИИ

Исследователи из компании Trail of Bits придумали новый способ атаки на ИИ-системы — через изображения с «невидимыми» инструкциями. Метод позволяет красть пользовательские данные, подсовывая скрытые промпты в картинки, которые потом обрабатываются моделью.

Фокус в том, что изображение изначально создаётся в полном разрешении и выглядит абсолютно нормально для человеческого глаза.

Но когда ИИ-система автоматически снижает качество картинки — например, чтобы сэкономить ресурсы, — в ней проявляются скрытые паттерны. Всё дело в том, что алгоритмы ресемплинга (nearest neighbor, bilinear или bicubic) создают артефакты, и на их фоне может «всплыть» спрятанный текст.

Так, в примере от Trail of Bits при использовании bicubic-декодирования тёмные зоны на картинке превращались в красные, а внутри появлялась чёткая чёрная надпись. ИИ воспринимал её как часть пользовательских инструкций и выполнял. Снаружи казалось, что всё работает как обычно, но фактически модель выполняла скрытые команды, что может привести к утечке данных.

 

На практике исследователи показали, что с помощью такого подхода удалось через Gemini CLI вытянуть данные из Google Calendar и переслать их на произвольный адрес — при этом инструмент Zapier MCP автоматически подтвердил операцию из-за настроек «trust=True».

Атака, по словам авторов, универсальна и требует лишь подстройки под конкретный алгоритм уменьшения изображения. Trail of Bits протестировала её на ряде систем:

  • Google Gemini CLI,
  • Vertex AI Studio,
  • веб-интерфейс Gemini,
  • Gemini API через llm CLI,
  • Google Assistant на Android,
  • Genspark.

Чтобы доказать работоспособность метода, исследователи даже выложили в открытый доступ свой инструмент Anamorpher (пока в бета-версии), который генерирует такие «аноморфные» изображения.

Что советуют в качестве защиты? Во-первых, ограничивать размеры картинок при загрузке. Во-вторых, если ресемплинг всё же нужен — показывать пользователю, какой именно вариант изображения попадёт в LLM. И, конечно, запрашивать подтверждение для любых чувствительных действий, если в картинке вдруг обнаружен текст. Но главное, подчеркивают в Trail of Bits, — это внедрение более надёжных архитектурных подходов, которые смогут противостоять не только мультимодальным, но и любым другим атакам через инъекции промптов.

Claude начала массовые блокировки российских пользователей

Нейросеть Claude, разработанная компанией Anthropic, начала массово блокировать российских пользователей. Им возвращают стоимость оплаченных подписок, однако аккаунты удаляются вместе со всеми данными. По данным СМИ, пострадали несколько сотен человек — в основном ИТ-специалисты и предприниматели. Многие из них потеряли данные и результаты анализа, которые собирали месяцами.

О массовом удалении аккаунтов российских пользователей сообщает Baza.

По мнению независимого эксперта в сфере ИИ Дмитрия Антипова, массовые блокировки могут быть связаны с тем, что Claude из-за санкционных ограничений официально недоступен в России, однако многие пользователи обходили эти ограничения разными способами.

Другой эксперт, опрошенный Baza, Роман Адаменко, считает, что в Anthropic могли расценить нестабильное сетевое соединение и частую смену IP-адресов из-за использования VPN как признак нарушения правил сервиса.

Дмитрий Антипов также не исключает, что часть российских пользователей могла не пройти верификационные проверки. По его словам, они могли быть связаны с внутренней оптимизацией инфраструктуры Anthropic.

Вместе с тем доступ к зарубежным ИИ-моделям предлагают российские операторы связи. В частности, доступ к Claude и ряду других зарубежных моделей обещает обеспечить «МегаФон».

RSS: Новости на портале Anti-Malware.ru