Эксперты создают систему, которая защитит чипы от Meltdown, Spectre

Эксперты создают систему, которая защитит чипы от Meltdown, Spectre

Эксперты создают систему, которая защитит чипы от Meltdown, Spectre

Исследователи создали новую систему, которая способна нивелировать риск атак, основанных на утечках в памяти. Самые знаменитые из такого рода атак — Meltdown и Spectre. Благодаря этим брешам злоумышленники могут использовать принцип работы процессов в памяти, известный как спекулятивное выполнение.

Специалисты лаборатории искусственного интеллекта MIT (MIT's Computer Science and Artificial Intelligence Laboratory, CSAIL) заверяют, что имеющиеся средства противодействия этим уязвимостям можно усовершенствовать для обеспечения безопасности будущих чипов.

«Эти атаки изменили наше представление о том, чему можно доверять в системе, а также заставили нас пересмотреть подход к безопасности», — объясняет Илья Лебедев, исследователь MIT CSAIL. — «Meltdown и Spectre показали нам, что мы должны уделять больше внимания микроархитектуре систем».

Лебедев с командой MIT CSAIL работают над системой, которая, по их словам, будет более эффективной альтернативой защиты компьютеров от атак тайминга. Разработчики заверяют, что их детище будет более совершенной версией защиты, чем Cache Allocation Technology (CAT) от Intel.

Принцип решения от MIT CSAIL заключается в ограждении и разделении коммуникаций внутри системных процессов. Ожидается, что это поможет избежать утечек информации, которые могут произойти, если разделения не будет.

Система получила имя Dynamically Allocated Way Guard (DAWG), она разделяет кеш на несколько «ведерок». В своем подробном отчете (PDF) эксперты описали, как их система сможет полностью изолировать программы с помощью кеша.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru