На DEF CON взломали аппаратную двухфакторную аутентификацию

На DEF CON взломали аппаратную двухфакторную аутентификацию

На DEF CON взломали аппаратную двухфакторную аутентификацию

Аппаратные токены считаются одним из наиболее надежных вариантов для защиты двухфакторной аутентификации, в отличие от ненадежных SMS-сообщений с одноразовыми кодами, которые можно перехватить самыми разными способами.

Даже компания Google уже начала отказываться от использования SMS и ратует за использование токенов. Но, к сожалению, даже такие устройства тоже нельзя считать абсолютно защищенными, что и продемонстрировали исследователи на конференции DEF CON, прошедшей в Лас-Вегасе на прошлой неделе, пишет xakep.ru.

«Аппаратные токены – это шаг вперед. Это здорово. Они предоставляют уровень защиты, с которым не может соперничать ничто. Но нужно помнить о железе. Если нам говорят, что этот волшебный токен безопасен, это не значит, что нужно безоговорочно этому верить», — рассказывает ИБ-специалист Джо Фицпатрик (Joe FitzPatrick), который вместе со своим коллегой Майклом Лейбовицем (Michael Leibowitz) представил доклад на конференции.

На GitHub можно свободно найти исходный код для эмуляции устройства YubiKey посредством Arduino, однако исследователи не ограничились только лишь этим. Вместо «голой» платы с эмуляцией, они постарались воссоздать физический аппаратный ключ YubiKey, назвав получившийся результат DoobieKey. В ходе презентации специалисты показали, что серверы YubiKey распознают эту подделку как легитимный токен YubiKey.

И хотя DoobieKey выполнен достаточно грубо, и вряд ли такая подделка сможет кого-либо обмануть, на презентации Лейбовиц продемонстрировал и более убедительный 3D-макет для печати.

Что именно предлагают исследователи? Атаку на цепочку поставок. «Вы модифицируете устройства до того как их получат пользователи», — объясняет Фицпатрик. На практике это означает, что атакующие могут изготовить партию поддельных токенов DoobieKey и, к примеру, распространить их среди посетителей какой-нибудь ИБ-конференции, или даже продать под видом настоящих. После того как пользователи привяжут к DoobieKey, например, свои аккаунты Gmail, атакующие будут иметь копию их токенов.

В ответ на предостережения исследователей представители компании Yubico сообщили, что подобные атаки действительно могут представлять угрозу и напомнили о том, что поэтому приобретать железо и софт следует только у проверенных поставщиков. Представители компании заверили, что Yubico контролирует свою цепочку поставок и гарантирует безопасность продаваемых устройств.

Также Фицпатрик и Лейбовиц продемонстрировали атаку на RSA-токены (устройства, которые отображают на встроенном экране специальный одноразовый код, который пользователь должен сообщить сайту или сервису для завершения аутентификации). Подделать такие гаджеты тоже не составило труда: фальшивые RSA-токены могут сообщать одноразовые коды злоумышленникам посредством Bluetooth. Конечно, в данном случае атакующему придется находиться где-то неподалеку от жертвы.

Исходные коды этой разработчики, а также спецификации плат для поддельных RSA-токенов исследователи обещают опубликовать на GitHub в ближайшем будущем. То есть в данном случае злоумышленнику понадобится изготовить кастомную плату и дополнительно приобрести bluetooth-модуль. «Но самым сложным этапом будет приведение кода в работоспособное состояние», — отмечает Фицпатрик.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru