ИИ Facebook назвал темнокожих людей на видео приматами

ИИ Facebook назвал темнокожих людей на видео приматами

ИИ Facebook назвал темнокожих людей на видео приматами

Пользователям Facebook, просматривающим видеоролики с участием темнокожих граждан, предложили «продолжить смотреть видео с приматами». Оказалось, что конфуз произошёл по вине системы рекомендаций Facebook, основанной на искусственном интеллекте.

Само собой, представители соцсети сразу поняли, чем грозит такая ошибка (Black Lives Matter) и поспешили принести извинения. Более того, виновную систему временно отключили и инициировали внутреннее расследование.

Этот эпизод, кстати, стал очередным доказательством «расовой предвзятости ИИ». Именно так считают правозащитники, которые в прошлом уже не раз отмечали подобные ошибки систем. Например, ранее распознающий лица ИИ ошибочно называл афроамериканцев преступниками.

В 2015 году, когда проблема ещё не была настолько актуальна, приложение Google Photos отмечало темнокожих людей на фотографиях «гориллами». А в мае Twitter выявил расовую предвзятость в механизме кадрирования фото.

«Рекомендация посмотреть другие ролики с ’’приматами’’ возникла из-за ошибки алгоритма, которая не имела ничего общего с содержанием видеороликов. Мы полностью отключили эту систему, чтобы выяснить причину и в дальнейшем не допустить подобной оплошности», — заявил пресс-секретарь Facebook изданию «Би-би-си».

«Как уже отмечалось ранее, мы знаем, что искусственный интеллект несовершенен, поэтому нам предстоит ещё много работы над его развитием и улучшением».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru