Полтысячи долларов – цена найденного бага в Oculus Rift

Facebook платит $500 за каждый баг в Oculus Rift

Компания Facebook готова выплачивать пользователям от $500 за каждую обнаруженную ошибку, связанную со шлемом виртуальной реальности Oculus Rift. Это небольшая цена, учитывая, сколько Facebook заплатила за покупку компании, занимавшейся системами виртуальной реальности.

В рамках программы владельцы Oculus Rift могут оповещать о проблемах Facebook и получить компенсацию за наблюдательность. Сотрудники компании утверждают, что максимальной суммы вознаграждения не существует. Каждая выплата зависит от серьезности найденной ошибки. Безопасность – одна из самых серьезных проблем Oculus Rift.

Большинство брешей связано с вебсайтом Oculus и системой сообщений, которой пользуются разработчики, а не с самим продуктом. Конечно, существует вероятность того, то погрешностей станет больше в железе и инструментах для создания софта, который совместим со шлемом виртуальной реальности.

Facebook заплатила $2 млрд за покупку прав на Oculus Rift . В прошлом году корпорация заплатила $1,5 млрд пользователям, которые нашли баги в её социальной сети. В настоящий момент Oculus Rift предоставляется разработчикам. Потребительская версия устройства должна появиться до конца 2015 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В ChatGPT нашли семь уязвимостей, сливающих данные пользователей

Исследователи из компании Tenable сообщили о серии уязвимостей, затрагивающих модели GPT-4o и GPT-5, которые лежат в основе ChatGPT. Эти дыры позволяют злоумышленникам похищать личные данные пользователей из памяти и истории переписки бота — без ведома самих пользователей.

Всего специалисты выявили семь векторов атак, часть из которых OpenAI уже устранила. Главная проблема — так называемые «непрямые инъекции промпта» (indirect prompt injection).

С их помощью можно обмануть искусственный интеллект и заставить его выполнять вредоносные инструкции, даже если пользователь ничего не подозревает.

Среди найденных методов — внедрение команд через вредоносные сайты, запросы к ChatGPT с поддельными ссылками или командами, маскированными под разрешённые домены (например, через bing.com), а также скрытие вредоносных инструкций в коде веб-страниц. В одном из сценариев атаки злоумышленник мог «отравить» память ChatGPT, добавив туда свои команды через сайт, который пользователь попросил бота кратко пересказать.

Подобные инъекции не требуют от пользователя кликов или загрузки файлов — достаточно обычного запроса вроде «расскажи, что написано на этом сайте». Если страница уже проиндексирована поисковиком, ИИ мог выполнить вредоносный код автоматически.

 

Tenable отмечает, что такие атаки — проблема не только OpenAI. За последние месяцы исследователи обнаруживали похожие уязвимости в Claude, Copilot, и других ИИ-инструментах. Некоторые позволяли похищать данные, обходить фильтры безопасности или подменять ответы модели.

По словам экспертов, полностью устранить угрозу инъекций промпта в ближайшее время вряд ли удастся. Они рекомендуют разработчикам ИИ-сервисов тщательнее проверять механизмы безопасности и фильтры URL, чтобы свести риски к минимуму.

Не так давно мы рассуждали на тему «можно ли доверять GenAI». Рассматривали галлюцинации и контроль достоверности ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru