Атака CacheWarp на AMD SEV опасна для зашифрованных виртуалок

Атака CacheWarp на AMD SEV опасна для зашифрованных виртуалок

Атака CacheWarp на AMD SEV опасна для зашифрованных виртуалок

Специалисты рассказали о новом векторе атаки на AMD Secure Encrypted Virtualization (SEV) под кодовым именем CacheWarp, который можно использовать для компрометации виртуальных машин и повышения прав в системе.

CacheWarp получила идентификатор CVE-2023-20592, её обнаружили эксперты Грацского технического университета и Центра информационной безопасности CISPA имени Гельмгольца.

Согласно описанию, CacheWarp затрагивает процессоры AMD, поддерживающие любую вариацию технологии SEV — «безопасная зашифрованная виртуализация».

«В новом исследовании мы специально сосредоточились на новейшей среде доверенного выполнения AMD (Trusted Execution Environment, TEE) — AMD SEV-SNP, беря за основу предыдущие атаки на Intel TEE», — объясняют специалисты.

«Нам удалось выяснить, что инструкция INVD, которая очищает содержимое кеша процессора, может быть использована для атаки на AMD SEV».

Расширение архитектуры AMD-V в виде SEV разработчики представили в 2016 году. Его задача — изоляция виртуальных машин от гипервизора, для чего используется шифрование содержимого памяти виртуальной машины с уникальным ключом. Смысл в том, чтобы защитить виртуалку от вредоносного гипервизора.

CacheWarp, по словам исследователей, позволяет условному атакующему нивелировать защитный слой и добиться повышения прав в системе, а в каких-то случаях и удалённого выполнения кода.

 

«Инструкция INVD дропает весь модифицированный контент в кеше, не записывая его обратно в память. Это приводит к возможности сбросить любые записи гостя на виртуальной машине. В отчёте мы демонстрируем эксплуатацию с помощью двух примитивов: “timewarp“ и “dropforge“».

AMD уже успела выпустить обновление микрокода, устраняющее описанную проблему.

Работодатели жалуются на дипломированную беспомощность из-за ИИ

Широкое распространение технологий искусственного интеллекта (ИИ) приводит к тому, что многие выпускники вузов не могут выполнять служебные обязанности без нейросетевых инструментов. При этом у них часто отсутствует базовое понимание знаний, которые они получили во время обучения.

О такой тенденции рассказал управляющий партнёр агентства по подбору кадров «А2» Алексей Чихачев в интервью ВГТРК. По его словам, у этого явления пока нет общепринятого названия, а сам он называет его «дипломированной беспомощностью».

«К нам приходят аналитики, маркетологи, юристы, кандидаты с дипломами из хороших вузов. Мы просим их объяснить без искусственного интеллекта, как они пришли к такому или иному выводу. Они разводят руками. Даёшь им ноутбук с интернетом — решают эту задачу, убираешь — и не справляются», — рассказал Алексей Чихачев.

Как отметил эксперт, при правильном использовании ИИ способен заметно усилить навыки сотрудника. Однако сейчас соискатели всё чаще пытаются не усилить свои компетенции с помощью ИИ, а заменить их нейросетевыми инструментами.

Ранее ВГТРК со ссылкой на данные опроса Работа.Ру сообщало, что до 40% соискателей используют ИИ для выполнения тестовых заданий. Из-за этого многие работодатели стали проводить собеседования строго офлайн.

В сфере ИБ, как отметили участники эфира AM Live «ИИ и машинное обучение в информационной безопасности: риски, сценарии и прогнозы», использование ИИ остаётся довольно ограниченным. Это связано, в частности, с вопросами ответственности за решения, принятые с помощью ИИ.

RSS: Новости на портале Anti-Malware.ru