CPU AMD Zen 3 уязвимы перед атаками вида Spectre из-за функции PSF

CPU AMD Zen 3 уязвимы перед атаками вида Spectre из-за функции PSF

CPU AMD Zen 3 уязвимы перед атаками вида Spectre из-за функции PSF

Американская компания AMD, один из крупнейших производителей графических процессоров и CPU, рекомендует клиентам отключить новую функцию, если они планируют использовать процессоры для работы с конфиденциальными данными.

Проблема в том, что заточенная под повышение производительности функция Predictive Store Forwarding (PSF) позволяет провести атаку по сторонним каналам (вроде Spectre). Как известно, PSF является частью архитектуры Zen 3, предназначенной для серии геймерских процессоров.

Проблемная функция задействует метод, известный как спекулятивное выполнение: запускается множество параллельных задач CPU, что позволяет повысить производительность и отбросить ненужные данные.

Тем не менее существует проблема атак по сторонним каналам, в ходе которых злоумышленники как раз задействуют спекулятивное выполнение. Если говорить простыми словами, в ходе эксплуатации подобных уязвимостей одному из приложений удаётся прорваться через защитные функции и прочитать информацию из другого приложения.

Все эти методы уже не раз описывались в случае известных брешей вроде Spectre, Meltdown, Spectre-NG, ZombieLoad, Foreshadow, RIDL, Fallout.

Даниел Грасс, специалист Грацского технического университета, утверждает, что функция SPF в процессорах AMD, потенциально уязвима перед атаками по сторонним каналам. То есть для SPF актуальны все подобные бреши, выявленные за последние годы. Проблему признала и сама AMD, предупредив пользователей, что в определённых условиях лучше отключить Predictive Store Forwarding.

Напомним, что в конце марта стало известно о двух уязвимостях в Linux, позволяющих обойти защиту от Spectre.

ФСТЭК России определилась со списком угроз для ИИ-систем

В банке данных угроз (БДУ), созданном ФСТЭК России, появился раздел о проблемах, специфичных для ИИ. Риски в отношении ИБ, связанные с качеством софта, ML-моделей и наборов обучающих данных, здесь не рассматриваются.

Угрозы нарушения конфиденциальности, целостности или доступности информации, обрабатываемой с помощью ИИ, разделены на две группы — реализуемые на этапе разработки / обучения и в ходе эксплуатации таких систем.

В инфраструктуре разработчика ИИ-систем оценки на предмет безопасности информации требуют следующие объекты:

 

Объекты, подлежащие проверке на безопасность в инфраструктуре оператора ИИ-системы:

 

Дополнительно и разработчикам, и операторам следует учитывать возможность утечки конфиденциальной информации, а также кражи, отказа либо нарушения функционирования ML-моделей.

Среди векторов возможных атак упомянуты эксплойт уязвимостей в шаблонах для ИИ, модификация промптов и конфигурации агентов, исчерпание лимита на обращения к ИИ-системе с целью вызвать отказ в обслуживании (DoS).

В комментарии для «Ведомостей» первый замдиректора ФСТЭК Виталий Лютиков пояснил, что составленный ими перечень угроз для ИИ ляжет в основу разрабатываемого стандарта по безопасной разработке ИИ-систем, который планировалась вынести на обсуждение до конца этого года.

Представленная в новом разделе БДУ детализация также поможет полагающимся на ИИ госструктурам и субъектам КИИ данных скорректировать процессы моделирования угроз к моменту вступления в силу приказа ФТЭК об усилении защиты данных в ГИС (№117, заработает с марта 2026 года).

Ужесточение требований регулятора в отношении безопасности вызвано ростом числа атак, в том числе на ИИ. В этих условиях важно учитывать не только возможности ИИ-технологий, но и сопряженные с ними риски.

RSS: Новости на портале Anti-Malware.ru