Очки виртуальной реальности уязвимы перед хакерами

В коде Oculus Developer Center нашли брешь

Компания Oculus VR, которую Facebook купила за $2 млрд, нашла уязвимость SQL-кода страницы Oculus Developer Center. Пока уязвимость не представляет особенной опасности, так как шлемы виртуальной реальности Oculus Rift доступны лишь ограниченному количеству разработчиков.

На форуме Oculus Developer Forums представители фирмы написали, что продолжат совершенствовать безопасность систем. Специалисты постоянно проводят проверки, чтобы выявить наличие уязвимостей. За прошедшие выходные эксперты обнаружили брешь, которая допустила внедрение SQL-кода в систему Oculus Developer Center. После обнаружения неполадки  работу сайта остановили и внесли необходимые коррективы в защиту.

Пока ничто не подтверждает, что атаку использовали для доступа к базе данных. Вместе с тем, пользователям Developer Center порекомендовали сменить пароли, когда они в следующий раз будут заходить в аккаунты. Неизвестно, какой тип шифрования избрали для защиты кодов, но её могли взломать, если компания просит поменять пароли.

Представители Oculus VR лишь сказали, что перестраховываются. Хакерам не удалось получить информацию о месте жительства или кредитных карточках пользователей. Она хранится в другой базе данных, в которую не проникли.

Покупка компании социальной сетью Facebook возмутило многих. Один из создателей шлема виртуальной реальности Oculus Rift Палмер Лаки (Palmer Luckey) сказал, что получил много угроз и агрессивных звонков. Многие считают, что защита их личных данных во время использования гаджета будет нарушена, потому что Facebook начнет эксплуатировать шлем как часть социальной сети.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru