Хакеры могут взламывать двери электрокаров Tesla

К машинам Tesla легко подобрать пароль

Консультант по безопасности и владелец машины Tesla Нитеш Данжани (Nitesh Dhanjani) заявил, что хакеры способны легко взломать авто. Достаточно заполучить пароль, который используется при регистрации учетной записи на сайте компании Tesla. Подобные ошибки недопустимы для столь продвинутого и дорогого автомобиля.

Онлайн-аккаунт позволяет покупателям управлять машиной посредством смартфона iPhone. Например, закрывать или открывать двери, включать фары, активировать гудок и следить за передвижением. Транспортное средство не заводится на расстоянии, но злоумышленники способны открыть его и украсть ценные вещи.

Пароли, которые устанавливают владельцы Tesla, состоят из 6 символов и должны содержать хотя бы одну цифру и одну букву. Такой пароль слаб и его легко расшифровать. Опасность и в том, что запись не блокируется, если учетные данные несколько раз вводятся неправильно.

Хакеры также способны использовать несколько методов для получения информации:  фишинговые атаки, вредоносный софт или взлом электронной почты. Еще одна проблема в прикладном программном интерфейсе REST. В приложении для iOS-устройств он используется для отправки команд машине. Tesla не планировала использование ППИ сторонними программистами, но интерфейс уже начали применять для разработки приложений.

Например, сделали программу, которая позволяет отслеживать и контролировать транспортное средство с помощью очков Google Glass. Вредоносный софт или небезопасная инфраструктура создателя программы может привести к краже данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru