Водяной знак в Windows 11 предупредит о несоответствии ПК требованиям ИИ

Водяной знак в Windows 11 предупредит о несоответствии ПК требованиям ИИ

Водяной знак в Windows 11 предупредит о несоответствии ПК требованиям ИИ

Компания Microsoft добавила код в Windows 11 24H2, который сообщит пользователям о том, что их компьютеры не соответствуют аппаратным требованиям для поддержки приложений с искусственным интеллектом.

Предупреждение будет отображаться в виде водяного знака. Изначально единственным требованием являлась инструкция PopCnt в процессоре, но позже кодирование выявило обязательное наличие SSE4.2.

Этот факт не затронет большинство пользователей, так как процессоры, поддерживающие Windows 11, оснащены инструкциями SSE 4.2.

Microsoft добавила эту проверку для приложений, работающих на основе ИИ, таких как Проводник, Copilot и DirectX.

Специалисты Albacore провели исследование бета-версии Windows 11 26200 и обнаружили, что AI Explorer всё же проверяет требования к процессору. Если они не соблюдены, то появляется предупреждение.

Компания нашла способ обойти данную проверку, отключив ID 48486440. Этот метод лишь запрещает AIX выполнять код, но не API.

Скорее всего, компания Microsoft сделала эту дополнительную проверку на случай, если кто-то использует обходные пути, чтобы заставить ОС загрузиться с неподдерживаемым процессором, ведь Windows 11 24H2 не будет загружаться без этих наборов инструкций.

На днях софтверный гигант решил отображать рекламу, ссылающуюся на магазин приложений, в виде «рекомендаций» в меню «Пуск». Microsoft также ограничила возможность настройки пользовательского интерфейса Windows 11 с помощью известных приложений.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru