Новый аппаратный бэкдор помогает взламывать подключенные автомобили

Новый аппаратный бэкдор помогает взламывать подключенные автомобили

Новый аппаратный бэкдор помогает взламывать подключенные автомобили

Аргентинские исследователи безопасности представили новый аппаратный бэкдор, который может удаленно воздействовать на подключенные автомобили (Connected Cars). Созданный ими бэкдор Bicho атакует любые транспортные средства, оснащенные CAN (Controller Area Network) шиной.

Новый бэкдор будет представлен хакерами Шейлой Айлен Берта и Клаудио Караччиоло на предстоящей конференции Hack in the Box в Амстердаме. С испанского Bicho переводится как “маленький жук” или “насекомое”. Это означает, что бэкдор (с открытым исходным кодом) легко может оставаться незамеченным из-за своего небольшого размера. Bicho работает на микроконтроллере PIC18F2580 и может получать команды через SMS.

Bicho 

Этот функционал обеспечивается модулем SIM800L GSM, который популярен среди любителей Arduino. Однако, по словам Берта, Arduino они не задействовали, а вместо него разработали собственное оборудование. Чтобы использовать Bicho, в модуль SIM800L нужно вставить GSM-чип с номером телефона. После отправки SMS с командой на этот номер прошивка аппаратного бэкдора будет знать, что делать. Bicho запрограммирован с помощью Car Backdoor Maker, программного обеспечения с открытым исходным кодом, который также был разработан исследователями.

car-backdoor-maker

Прежде чем использовать бэкдор, его нужно подключить к компьютеру, предварительно запустив на нем Car Backdoor Maker и скачав полезные нагрузки (payloads), которые потом будут удаленно подгружаться в бэкдор.

Bicho поддерживает множество полезных нагрузок и может атаковать любой автомобиль, оснащенный CAN шиной, вне зависимости от производителя и модели. Полезные нагрузки привязаны к командам, которые поступают по SMS. Чем выше уровень автоматизации автомобиля и чем больше систем подключено к CAN шине, тем шире возможности Bicho. Например, бэкдор может управлять фарами, положением дроссельной заслонки, тормозами и даже выводить машину из строя, отключая электронный блок управления (ЭБУ). Bicho также может автоматически атаковать автомобиль, когда тот находится рядом с конкретным местоположением, превышает заданную скорость или израсходовал определенное количество топлива. 

Поскольку Bicho подключается к CAN шине через OBD II-порт, обычно расположенный под рулевым колесом автомобиля, очевидно, что для использования бэкдора злоумышленник должен сперва получить физический доступ к машине. И хотя создатели Bicho понимают, что их разработки могут попасть в руки преступников, ответственность за возможные взломы лежит на плечах злоумышленников. Цель исследователей — показать на примере, как легко взломать подключенный автомобиль.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Несколько месяцев подряд в Google Search Console — инструменте, который веб-мастера используют для анализа поискового трафика, — появляются очень странные запросы. Вместо привычных коротких ключевых слов там стали попадаться целые абзацы текста — личные обращения пользователей к ChatGPT.

Иногда длина таких «запросов» превышала 300 символов, а по содержанию они выглядели как частные разговоры: кто-то спрашивал совет по отношениям, кто-то обсуждал рабочие вопросы.

Проблему первым заметил аналитик Джейсон Пакер из компании Quantable. Он опубликовал запись в блоге, где рассказал о десятках подобных случаев, а позже объединился с SEO-экспертом Слободаном Маничем, чтобы разобраться, откуда берутся эти данные.

По их версии, найденной утечке нет аналогов: ChatGPT будто бы напрямую отправлял пользовательские запросы в Google Search, а затем те каким-то образом оказывались в отчётах GSC. Эксперты уверены, что речь идёт о «первом доказательстве того, что OpenAI действительно обращается к поиску Google с реальными пользовательскими промптами».

OpenAI комментировать гипотезу напрямую отказалась, но подтвердила, что «осведомлена о проблеме» и уже исправила ошибку, которая якобы «затронула небольшое количество поисковых запросов».

Пакер, впрочем, не убеждён, что всё так просто. Он считает, что компания не дала прямого ответа на главный вопрос — действительно ли OpenAI сканировала Google и передавала туда пользовательские промпты. Google ситуацию не прокомментировала.

Первые утёкшие фразы Пакер заметил ещё в сентябре. Среди них — поток сознания от девушки, пытавшейся понять, нравится ли она парню, и деловое сообщение офис-менеджера, обсуждающего возвращение сотрудников в офис. Всего Пакер насчитал около двухсот подобных записей только на одном сайте.

Дальнейшее расследование показало, что все эти запросы начинались с одинакового URL:
https://openai.com/index/chatgpt/

Google, как предполагают исследователи, разделил адрес на отдельные слова — openai, index, chatgpt — и начал воспринимать их как поисковый запрос. Из-за этого сайты, которые хорошо ранжировались по этим словам, начали видеть в своей консоли чужие фразы пользователей ChatGPT.

Пакер и Манич полагают, что причиной стала ошибка в одном из интерфейсов ChatGPT. При вводе запроса на странице с параметром hints=search модель почти всегда выполняла реальный поиск в интернете — и использовала при этом Google. Из-за сбоя ChatGPT добавлял к поисковому запросу часть адреса страницы и передавал всё это в Google как обычный поисковый запрос.

Поскольку запросы не шли через API, а именно через открытый поиск, они начали появляться в отчётах Search Console у тех сайтов, которые Google выбрал в результатах.

Пакер считает, что так утекали все промпты, где ChatGPT принимал решение искать сделать поиск в Google. OpenAI заявила, что инцидент затронул «небольшое количество запросов», но не уточнила, сколько именно пользователей могли пострадать.

Ранее уже была похожая история, когда пользовательские чаты ChatGPT попадали в индекс Google. Тогда OpenAI объяснила, что пользователи сами «неосознанно» сделали их публичными, поставив соответствующую галочку.

В этот раз, подчёркивает Пакер, всё гораздо хуже: никто ничего не публиковал добровольно. Пользователи просто писали запросы — и часть этих сообщений могла оказаться в инструментах аналитики чужих сайтов.

Эксперты называют ситуацию «менее опасной, но куда более странной». И хотя OpenAI утверждает, что проблема уже устранена, Пакер и Манич уверены: вопросов всё ещё больше, чем ответов.

Главный из них — перестала ли OpenAI вообще использовать Google Search для сбора данных, или просто изменила способ отправки запросов. Пока компания этого не уточнила.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru