Hertzbleed: новая атака по сторонним каналам затрагивает CPU от Intel, AMD

Hertzbleed: новая атака по сторонним каналам затрагивает CPU от Intel, AMD

Hertzbleed: новая атака по сторонним каналам затрагивает CPU от Intel, AMD

Новый вид кибератаки по сторонним каналам, получивший имя Hertzbleed, позволяет злоумышленникам удалённо вытащить криптографические ключи целиком, наблюдая за изменениями частоты процессора.

Этот вектор открывается на современных x86-процессорах от Intel (уязвимость под идентификатором CVE-2022-24436) и AMD (CVE-2022-23823). Дросселирование тактов (Dynamic frequency scaling, DVFS), играющее в Hertzbleed ключевую роль, зависит от потребляемой мощности и обрабатываемых данных.

Как правило, DVFS используется современными процессорами в качестве образного барьера, который не даёт системе выходить за пределы мощности и температуры при высоких нагрузках.

Об атаке Hertzbleed рассказали специалисты университетов Техаса, Иллинойса и Вашингтона. Они объясняют свою находку следующим образом:

«В худшем случае такого рода атаки могут позволить злоумышленнику извлечь с удалённых серверов криптографические ключи, которые в обычных условиях должны быть хорошо защищены. Hertzbleed — вполне состоятельный вектор, применимый на практике».

«Во-первых, Hertzbleed показала, что на x86-процессорах атаки по сторонним каналам можно превратить в тайминг-атаки. Во-вторых, Hertzbleed демонстрирует возможность утечки криптографического кода с помощью анализа времени».

Как отметили в Intel, соответствующая уязвимость затрагивает все процессоры корпорации. Более того, удалённая эксплуатация позволяет злоумышленнику с низкими правами провести кибератаку без какого-либо взаимодействия с пользователем.

Представители AMD тоже прокомментировали находку экспертов, уточнив, что Hertzbleed представляет угрозу для нескольких продуктов, среди которых десктопные, мобильные, серверные и даже установленные в Chromebook процессоры.

Американские разработчики ИИ-моделей выявляют и банят россиян

Разработчики моделей искусственного интеллекта (ИИ) Claude, ChatGPT и Gemini активно выявляют пользователей из неподдерживаемых регионов, включая Россию, и блокируют им доступ. При этом чем крупнее проект, тем выше риск столкнуться с ограничениями.

Недавно стало известно о масштабной блокировке российских пользователей компанией Anthropic, которой принадлежит ИИ-модель Claude. По данным СМИ, она затронула сотни людей и компаний. При этом удалялись все данные и аналитика, хотя деньги за подписки возвращались.

Как отметил директор по экспериментальным продуктам MWS AI, входящей в МТС Web Services, Сергей Пономаренко в беседе с РИА Новости, зарубежные разработчики продолжат применять такую практику в отношении россиян. По его оценке, под наиболее серьёзной угрозой находятся крупные проекты, по которым есть признаки корпоративного использования. Это связано с соблюдением санкционных ограничений, введённых властями США ещё в 2024 году.

«Американские компании-разработчики ИИ Anthropic, OpenAI и Google активно применяют инструменты выявления пользователей из неподдерживаемого региона и будут дальше совершенствовать их, поэтому россиян ждут новые волны блокировок в Claude, ChatGPT и Gemini», — предупредил Сергей Пономаренко.

По его словам, ограничения вводятся постепенно. Российские IP-адреса долгое время могли помечаться в базах, которыми пользуются зарубежные компании, как европейские, однако со временем такие данные уточняются. В результате сетевые адреса начинают определяться как российские, после чего к ним применяются ограничения.

Использование прокси и VPN зарубежные компании также могут отслеживать. «Подозрение могут вызвать постоянные входы из разных стран за короткое время, использование известных VPN или прокси, слишком большое количество запросов, массовое создание аккаунтов, а также попытки обойти блокировки или фильтры безопасности», — пояснил эксперт.

Часто сомнительные учётные записи сначала отправляют на проверку и не блокируют полностью. Доступ к ним могут восстановить после обращения в техническую поддержку. Однако при удалении аккаунта уничтожаются все данные. При этом сами диалоги владельцы ИИ-моделей могут сохранять, что создаёт дополнительные риски утечки информации.

RSS: Новости на портале Anti-Malware.ru