Исследователи нашли способ хакнуть автобусы через бортовой Wi-Fi

Исследователи нашли способ хакнуть автобусы через бортовой Wi-Fi

Исследователи нашли способ хакнуть автобусы через бортовой Wi-Fi

На конференции DEF CON исследователи Чьяо-Лин «Steven Meow» Ю (Trend Micro Taiwan) и Кай-Чинг «Keniver» Ван (CHT Security) показали, как «умные» автобусы можно взломать удалённо — и последствия такого взлома могут быть куда серьёзнее, чем просто отключённый Wi-Fi.

Поводом для исследования стала бесплатная сеть в салоне автобуса.

Оказалось, что один и тот же M2M-роутер обслуживает не только пассажирский интернет, но и ключевые бортовые системы — APTS (управление маршрутами, расписаниями, GPS, панелями на остановках) и ADAS (ассистенты водителя, предотвращение столкновений, контроль полосы, распознавание знаков, видеонаблюдение в салоне).

Взлом оказался проще, чем ожидалось: аутентификацию роутера удалось обойти, а из-за отсутствия сегментации сети исследователи получили доступ ко всем подключённым сервисам.

Нашлись и серьёзные уязвимости — от возможности удалённого выполнения команд до MQTT-бэкдора, позволяющего подключаться к автобусу через интернет.

Демонстрация на DEF CON показала, что хакер может:

  • отслеживать точное местоположение автобуса,
  • подключаться к камерам с дефолтными паролями,
  • менять содержимое информационных дисплеев,
  • воровать данные водителей и пассажиров,
  • подделывать показания GPS, датчиков двигателя и даже статус «не на линии», чтобы сорвать расписание.

Шифрования и аутентификации в используемых протоколах нет вообще, поэтому атаки «человек посередине» легко позволяют подменять или подделывать данные.

Хотя тесты проводились в Тайване, разработчики систем предлагают интерфейсы на китайском, английском, японском и вьетнамском — значит, похожие уязвимые решения могут использоваться и в других странах.

Исследователи пытались уведомить производителей — американскую BEC Technologies (роутеры) и тайваньскую Maxwin (транспортные платформы), но ответа так и не получили. Уязвимости, судя по всему, до сих пор не исправлены.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru