Tesla подарит автомобиль Model 3 за обнаружение в нем уязвимостей

Tesla подарит автомобиль Model 3 за обнаружение в нем уязвимостей

Tesla подарит автомобиль Model 3 за обнаружение в нем уязвимостей

Tesla дает возможность исследователям получить электрический пятиместный седан Model 3. Для этого им надо будет взломать эту машину и сообщить об обнаруженных уязвимостях, чтобы разработчики смогли принять меры, обезопасив конечных пользователей.

Предложение действует в рамках конкурса Pwn2Own в Ванкувере. Исследователи в области безопасности приглашаются принять участие и выявить уязвимости в браузерах и корпоративных программах.

Как передает Fortune, впервые в этом году будет отдельная категория для поиска брешей в автомобилях. Специалисты попробуют пробить защиту последней модели электромобиля.

Это грамотный шаг, который принесет пользу конечным пользователям автомобиля Model 3, — поскольку Tesla может рассылать обновления «по воздуху», у компании не должно возникнуть проблем с разработкой патчей и доставкой их автолюбителям.

«Мы разрабатываем автомобили по наивысшим стандартам безопасности. Наше сотрудничество с экспертами в области безопасности вносит просто неоценимый вклад», — заявил Джвид Лау, вице-президент отдела разработки программного обеспечения для автомобилей Tesla.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В GPT-5 нашли уязвимость: ответы могут формировать более слабые модели

Исследователи из Adversa AI сообщили о необычной уязвимости в GPT-5, которая получила название PROMISQROUTE. Суть проблемы в том, что ответы пользователю не всегда формируются самой GPT-5: внутри работает специальный «роутер», который решает, какой именно из моделей поручить обработку запроса. И это может быть как GPT-5 Pro, так и GPT-4o, GPT-3.5 или облегчённые версии GPT-5.

Такой подход экономит ресурсы: сложные задачи достаются самой «тяжёлой» модели, а простые — более лёгким и дешёвым. По оценкам Adversa, это может экономить OpenAI до 1,86 млрд долларов в год. Но у схемы есть обратная сторона — роутер можно обмануть.

Учёные выяснили, что с помощью определённых «триггерных» фраз пользователь может заставить систему перенаправить свой запрос на менее защищённую модель.

Это значит, что старые джейлбрейки, которые GPT-5 сама по себе блокировала, снова начинают работать — если запрос сначала попадает к «слабому звену».

Опасность здесь не только в том, что повышается риск галлюцинаций. Хакер может сознательно подменить модель и добиться выполнения инструкций, которые GPT-5 Pro обычно отвергла бы. Таким образом, уязвимость сводит защиту всей системы к уровню самой уязвимой модели внутри.

Решение вроде бы простое — отключить маршрутизацию и использовать всегда GPT-5 Pro. Но это замедлит работу и сделает её дороже. А бизнес-модель OpenAI построена на скорости и оптимизации расходов.

«GPT-5 нужно делать безопаснее — либо поставить защиту перед роутером, либо довести все модели до единого уровня безопасности. Лучше и то, и другое», — резюмировал глава Adversa AI Алекс Поляков.

Напомним, Недавно мы писали о способе обойти защиту GPT-5 с помощью скрытых историй.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru