В OpenClaw нашли опасный сценарий незаметной утечки данных

В OpenClaw нашли опасный сценарий незаметной утечки данных

В OpenClaw нашли опасный сценарий незаметной утечки данных

Специалисты нашли проблемы у ИИ-агента OpenClaw: китайский центр реагирования на компьютерные инциденты CNCERT указал на слабые настройки безопасности по умолчанию и риски инъекции промпта, когда внешнее содержимое незаметно подсовывает агенту вредоносные инструкции.

Но самое неприятное в этой истории даже не сама по себе «путаница» модели, а то, во что она может превратиться на практике.

Исследователи показали сценарий, при котором обычная работа ИИ-агента превращается в незаметный канал утечки данных, причём безо всяких кликов со стороны пользователя.

Схема выглядит так: злоумышленник прячет вредоносные инструкции в веб-странице или во внешнем контенте, который OpenClaw должен прочитать. Агент обрабатывает этот текст и под его влиянием формирует ссылку, в адрес которой уже встроены конфиденциальные данные — например, фрагменты информации, к которым у него есть доступ.

Дальше происходит самое коварное. Если OpenClaw отправляет такую ссылку пользователю через Telegram, Discord или другой мессенджер, сама платформа может автоматически создать предпросмотр ссылки, а это уже вызывает фоновый запрос к серверу атакующего.

В итоге злоумышленник получает данные просто из логов своего сервера без нажатия на ссылку, без дополнительного действия и вообще почти без шума. Именно поэтому история выглядит особенно серьёзно: проблема лежит не только в модели, а в архитектуре всего окружения.

OpenClaw ценят за то, что он умеет читать локальные файлы, выполнять задачи и работать с разными сервисами. Но ровно эта же полезность делает компрометацию куда болезненнее: если агенту дали широкий доступ, то и последствия инъекции промпта становятся вполне реальными.

CNCERT как раз предупреждал, что при неправильной установке и избыточных правах OpenClaw может создавать серьёзные риски для безопасности и данных. На этом фоне власти Китая уже начали ограничивать использование OpenClaw в ряде чувствительных сред, включая государственные системы и отдельные организации.

Работодатели жалуются на дипломированную беспомощность из-за ИИ

Широкое распространение технологий искусственного интеллекта (ИИ) приводит к тому, что многие выпускники вузов не могут выполнять служебные обязанности без нейросетевых инструментов. При этом у них часто отсутствует базовое понимание знаний, которые они получили во время обучения.

О такой тенденции рассказал управляющий партнёр агентства по подбору кадров «А2» Алексей Чихачев в интервью ВГТРК. По его словам, у этого явления пока нет общепринятого названия, а сам он называет его «дипломированной беспомощностью».

«К нам приходят аналитики, маркетологи, юристы, кандидаты с дипломами из хороших вузов. Мы просим их объяснить без искусственного интеллекта, как они пришли к такому или иному выводу. Они разводят руками. Даёшь им ноутбук с интернетом — решают эту задачу, убираешь — и не справляются», — рассказал Алексей Чихачев.

Как отметил эксперт, при правильном использовании ИИ способен заметно усилить навыки сотрудника. Однако сейчас соискатели всё чаще пытаются не усилить свои компетенции с помощью ИИ, а заменить их нейросетевыми инструментами.

Ранее ВГТРК со ссылкой на данные опроса Работа.Ру сообщало, что до 40% соискателей используют ИИ для выполнения тестовых заданий. Из-за этого многие работодатели стали проводить собеседования строго офлайн.

В сфере ИБ, как отметили участники эфира AM Live «ИИ и машинное обучение в информационной безопасности: риски, сценарии и прогнозы», использование ИИ остаётся довольно ограниченным. Это связано, в частности, с вопросами ответственности за решения, принятые с помощью ИИ.

RSS: Новости на портале Anti-Malware.ru