PT Sandbox поддерживает технологии обмана (deception)

PT Sandbox поддерживает технологии обмана (deception)

PT Sandbox поддерживает технологии обмана (deception)

Песочница Positive Technologies теперь поддерживает технологии обмана (deception-технологии), направленные на создание ловушек для вредоносных программ. Приманки, имитирующие в изолированной виртуальной среде настоящие файлы, процессы или данные, провоцируют вредоносы на взаимодействие и тем самым помогают выявить присутствие хакеров в инфраструктуре.

Ключевым изменением в PT Sandbox 2.2 стали приманки, которые могут спровоцировать инструменты взломщика на то, чтобы проявить себя. В частности, это файлы-приманки, содержащие поддельные учетные записи пользователей, файлы конфигурации или другую конфиденциальную информацию, потенциально интересную атакующему. При попытке кражи таких данных PT Sandbox оперативно выявит угрозу. Примерно так же действуют и процессы-приманки: они имитируют работу банковских приложений, программ разработчиков или обычную пользовательскую активность, и продукт выявляет попытки злоумышленников вмешаться в них.

«Эффективность песочницы зависит, с одной стороны, от способности оставаться незамеченной для вредоносов, а с другой — от среды, которая должна быть максимально похожа на привычное окружение пользователя, — говорит Алексей Вишняков, руководитель отдела обнаружения вредоносных программ экспертного центра безопасности Positive Technologies (PT Expert Security Center). — Зловреды чаще всего ищут интересные им файлы, работающие процессы, изменения в буфере обмена. Злоумышленникам это нужно для кражи конфиденциальной информации, а в песочницах используется как своеобразный триггер. Если в системе мало процессов, нет нужных файлов и прочих признаков работы пользователя, то ВПО просто не будет ничего делать, посчитав систему неинтересной. Развивая deception-технологии в нашей песочнице, мы побуждаем вредоносные программы к активным действиям и тем самым помогаем своевременно их выявлять, улучшая качество защиты».

Также технологии обмана в PT Sandbox 2.2 реализованы в поддельных, но корректных по формату приватных данных: например, пароли или номера карт помещаются в виде приманки в буфер обмена пользователя, который так любят перехватывать трояны-шпионы.

«Компания должна выстраивать защиту исходя из того, какие риски считает наиболее приоритетными, — комментирует Ксения Кириллова, менеджер по продуктовому маркетингу Positive Technologies. — Ключевой набор приманок, который наши эксперты сформировали, исследуя деятельность хакерских группировок, доступен нашим заказчикам "из коробки". Однако при необходимости мы можем добавить в PT Sandbox дополнительные приманки по запросу клиента. Это сделает защиту более персонализированной и позволит компании нивелировать угрозы, направленные на системы, которые критически важны для конкретного бизнеса».

Для более точной имитации работы пользователя в виртуальные среды PT Sandbox разработчики добавили дополнительные программы: видеоплеер, оптимизатор системы, платформа для видеосвязи, эмуляторы промежуточного кода. Также теперь продукт покрывает еще больше существующих уязвимостей в офисных и других приложениях — этого удалось достичь благодаря расширению числа версий софта, установленного в песочнице.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru