На конференции Def Con продемонстрировали взлом монитора

На конференции Def Con продемонстрировали взлом монитора

На конференции Def Con продемонстрировали взлом монитора

«Не стоит слепо доверять пикселям на мониторе», — заявили исследователи компании Red Balloon Security и подкрепили свои слова делом. Хотя взлом монитора и подмена изображения на экране оказались совсем нелегкой задачей, экспертам удалось доказать, что это возможно. Свои достижения они и продемонстрировали на конференции DEF CON.

Энг Куи (Ang Cui) и Джатин Катария (Jatin Kataria) показали, что хакнуть монитор возможно. Для этого исследователям понадобилось взломать прошивку монитора, что позволило им как видеть пиксели, которые отображает устройство (очень полезная для шпионажа вещь), так и подменять пиксели другим изображением.

По словам исследователей, чтобы реализовать такую атаку, злоумышленнику вначале понадобится физический доступ к монитору, а именно к порту USB или HDMI, что позволит добраться до микроконтроллера и прошивки.

Сами Куи и Катария сумели полностью отреверсить работу монитора Dell U2410, хотя процесс оказался трудоемким и занял у них почти два года. В ходе реверс инжиниринга исследователи обнаружили, что Dell вообще не предусмотрела никаких механизмов, защищающих контроллер дисплея от несанкционированного обновления или изменения прошивки. Именно эта особенность и позволила специалистам внести изменения в прошивку устройства, подменив ее вредоносной версией собственной работы, пишет xakep.ru.

В ходе презентации на DEF CON исследователи показали реальные примеры того, почему подобный хак может быть опасен. Фактически даже подмена одной кнопки может привести к весьма неприятным последствиям. Так, исследователи изменили цвет индикатора состояния с зеленого на красный в интерфейсе управления системами электростанции. Даже такая мелочь может спровоцировать отключение станции и большие проблемы.

Также исследователи показали успешное внедрение фотографии на экран монитора, и сумели «подрисовать» значок защищенного соединения в адресную строку браузера. Кроме того, дуэт продемонстрировал, как легким движением руки баланс PayPal-счета может измениться с $0 на $1 000 000 000.

Куи и Катария предупредили, что проблема не ограничивается только мониторами компании Dell. По словам экспертов, для подобных атак потенциально уязвимы миллиарды устройств разных производителей.

Показанную исследователями атаку достаточно легко обнаружить: после взлома изображение на мониторе реагирует на действия пользователя значительно медленнее, чем обычно. Вряд ли данному вектору атак можно найти применение в повседневной жизни. Хотя в теории хакеры могли бы «подрисовывать» на экран монитора что угодно, к примеру, сообщение с требованием выкупа, утверждая, что вся информация на компьютере зашифрована. Однако атака Куи и Катарии будет гораздо эффективнее, если применить ее против мониторов промышленных систем управления, изображение на которых остается статичным большую часть времени. Велик шанс, что там незамеченной останется даже задержка обновления картинки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru