Ubuntu может отключить GPU-защиту Intel ради +20% к производительности

Ubuntu может отключить GPU-защиту Intel ради +20% к производительности

Ubuntu может отключить GPU-защиту Intel ради +20% к производительности

У Intel, как известно, непростая история с уязвимостями аппаратного уровня: Spectre, Meltdown и вся эта архитектурная боль. Чтобы хоть как-то исправить ситуацию, компания выкатывала патчи микрокода и ограничивала работу механизма спекулятивного выполнения.

Но мало кто знает, что похожая история происходит и с графикой Intel. Да, даже у встроенного видео и Arc-дискреток.

Выяснилось, что защитные меры на GPU тоже съедают кусок производительности — на Linux, например, отключение этих защит в OpenCL и Level Zero может прибавить до 20% скорости.

Теперь Canonical, разработчики Ubuntu, официально рассматривают возможность отключить эту защитную функциональность по умолчанию в системе.

Причём без хаков и танцев с бубном — Intel сама выложила на GitHub сборки своих GPU-стеков с отключёнными митигациями. Canonical это, конечно, подбодрило.

Да, риски остаются — полностью безопасным такой шаг не назвать. Но разработчики отмечают, что ядро Ubuntu и так включает серьёзные CPU-уровневые защиты, а значит, угроза оценивается как довольно низкая.

Пока неясно, включена ли эта же защита на Windows 11 — Intel официально не комментирует. Но на фоне просадок в производительности, особенно на Arc, всё больше пользователей предпочитают риск ради скорости. Многие геймеры уже давно вручную отключают CPU-митигации.

Canonical сейчас балансирует между безопасностью и здравым смыслом. И судя по всему, для десктопных Linux-пользователей этот выбор может вскоре стать проще — если производительность важнее теоретической угрозы, GPU-защиту просто отключат.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Первый иск к OpenAI: родители винят ChatGPT в трагедии подростка

В США подан первый иск против OpenAI, качающийся суицида несовершеннолетнего. Родители 16-летнего Адама Рейна утверждают, что их сын на протяжении нескольких месяцев обсуждал с ChatGPT свои планы покончить с собой, а затем свёл счёты с жизнью.

Обычно потребительские чат-боты с ИИ оснащены защитными механизмами: если пользователь говорит о намерении причинить себе вред, система должна предлагать помощь или контакты горячих линий.

В случае Адама как пишет The New York Times, это действительно происходило — однако подростку удалось обойти защиту, объяснив, что информация о методах суицида нужна ему для «фиктивного рассказа».

OpenAI в блоге признала уязвимость подхода: модели лучше справляются с короткими диалогами, а в длинных переписках часть «обучения на безопасности» постепенно теряет эффективность. Компания утверждает, что продолжает совершенствовать свои продукты, чтобы надёжнее реагировать на чувствительные темы.

Проблема, впрочем, не ограничивается одной корпорацией. Подобный иск подан и против Character.AI, а случаи, когда ИИ-чат-боты оказывались вовлечены в трагедии или вызывали у пользователей иллюзии и навязчивые идеи, фиксировались и раньше.

История Адама стала первым судебным прецедентом против OpenAI и, вероятно, откроет новую главу дискуссии о том, где проходит граница ответственности разработчиков ИИ за последствия общения их систем с людьми.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru