ИИ Facebook назвал темнокожих людей на видео приматами

ИИ Facebook назвал темнокожих людей на видео приматами

ИИ Facebook назвал темнокожих людей на видео приматами

Пользователям Facebook, просматривающим видеоролики с участием темнокожих граждан, предложили «продолжить смотреть видео с приматами». Оказалось, что конфуз произошёл по вине системы рекомендаций Facebook, основанной на искусственном интеллекте.

Само собой, представители соцсети сразу поняли, чем грозит такая ошибка (Black Lives Matter) и поспешили принести извинения. Более того, виновную систему временно отключили и инициировали внутреннее расследование.

Этот эпизод, кстати, стал очередным доказательством «расовой предвзятости ИИ». Именно так считают правозащитники, которые в прошлом уже не раз отмечали подобные ошибки систем. Например, ранее распознающий лица ИИ ошибочно называл афроамериканцев преступниками.

В 2015 году, когда проблема ещё не была настолько актуальна, приложение Google Photos отмечало темнокожих людей на фотографиях «гориллами». А в мае Twitter выявил расовую предвзятость в механизме кадрирования фото.

«Рекомендация посмотреть другие ролики с ’’приматами’’ возникла из-за ошибки алгоритма, которая не имела ничего общего с содержанием видеороликов. Мы полностью отключили эту систему, чтобы выяснить причину и в дальнейшем не допустить подобной оплошности», — заявил пресс-секретарь Facebook изданию «Би-би-си».

«Как уже отмечалось ранее, мы знаем, что искусственный интеллект несовершенен, поэтому нам предстоит ещё много работы над его развитием и улучшением».

В дарквебе формируется экономика вокруг продажи устаревших данных из утечек

В теневом интернете сформировалась и продолжает развиваться отдельная экономика, связанная с продажей данных из утечек прошлых лет. Такие массивы по-прежнему приносят прибыль, а анализ подобных угроз для компаний, допустивших компрометацию данных ранее, становится значительно сложнее. К таким выводам пришли исследователи Positive Technologies.

Как выяснилось, злоумышленники успешно продают базы данных, украденные месяцы и даже годы назад.

Монетизации таких массивов, как отмечают исследователи, способствуют громкие заголовки и то, что покупатели далеко не всегда проверяют, действительно ли предлагаемые данные уникальны и недоступны в открытом доступе.

Известны случаи, когда продавцам удавалось сбывать даже те данные, которые уже были опубликованы. Не исключено, что в таких ситуациях покупатели рассчитывают получить более полную версию массива по сравнению с той, что ранее появилась в открытом доступе.

«На рынке всегда найдутся те, кто готов продавать публичные данные под видом эксклюзивных, и те, кто готов их покупать, не проверяя источники», — говорится в обзоре.

В качестве примера в исследовании приведён запрос на базу данных МФО «Займер», датированный 2026 годом. При этом сама компрометация компании произошла ещё в 2024 году. Тогда сообщалось, что в распоряжении злоумышленников могли оказаться данные 16 млн человек.

При этом, как подчёркивают в Positive Technologies, многие сведения из старых утечек по-прежнему сохраняют актуальность. Это касается в том числе паролей и другой чувствительной информации.

На этом рынке возникают и конфликты между самими участниками. Так, в отчёте приводится пример, когда один из пользователей форума опубликовал более сотни сообщений о якобы «новых» утечках. После того как другой продавец указал на несостыковки, первый в ответ выложил в открытый доступ его личную информацию и также обвинил его в продаже уже публичных данных.

RSS: Новости на портале Anti-Malware.ru