OpenID Foundation: Функция Войти с помощью Apple небезопасна

OpenID Foundation: Функция Войти с помощью Apple небезопасна

OpenID Foundation: Функция Войти с помощью Apple небезопасна

Некоммерческая организация OpenID Foundation, стоящая за разработкой открытого стандарта децентрализованной системы аутентификации OpenID, направила открытое письмо американской корпорации Apple. В письме утверждается, что недавно анонсированная функция «Войти с помощью Apple» создает определенные риски для безопасности и конфиденциальности пользователей.

В письме организация говорит о том, что Apple построила функцию «Войти с помощью Apple» на базе платформы OpenID Connect. Однако подчеркивается, что имплементация Apple не до конца совместима со стандартом OpenID.

В результате, по словам представителей OpenID Foundation, «функция Apple подвергает безопасность и конфиденциальность пользователей неоправданному риску».

«Основные на данный момент отличия OpenID Connect от “Войти с помощью Apple“ заключаются в том, что Apple подвергает конфиденциальность и безопасность пользователей неоправданному риску», — объясняет председатель OpenID Foundation Нэт Сакимура.

OpenID Foundation опубликовала целый список отличий функции Apple от платформы OpenID Connect. Сакимура призывает Apple соответствовать стандарту OpenID.

Напомним, что на конференции WWDC 2019 Apple рассказала о своих планах сделать процесс аутентификации в приложениях более безопасным. По словам представителей корпорации, разработчики тестируют функцию «Войти с помощью Apple», которой можно будет воспользоваться в случае со всеми приложениями, поддерживающими вход с учетными данными сторонних сервисов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru