Apple столкнулась с иском от 27-летней женщины, утверждающей, что она в юном возрасте подвергалась домогательствам со стороны одного из родственников. Основание для иска заключается в нежелании Apple реализовывать функциональность CSAM.
CSAM (Child Sexual Abuse Material — материалы сексуального характера, в которых фигурируют дети) изначально была придумана с целью вычислять и пресекать распространение подобного контента.
Как отмечает издание The New York Times, истец не видит желания Apple остановить распространение преступных материалов, что усугубляет психологическую травму жертв надругательств.
Принцип работы CSAM заключается в сканировании сохранённых в iCloud фотографий и видеозаписей пользователей. Ранее функциональность критиковали за потенциальное создание дополнительного бэкдора, которым власти могут воспользоваться для кибершпионажа.
Как утверждает 27-летняя женщина, подавшая на в суд на корпорацию, медиаматериалы с её участием утекли в Сеть.
По сей день истец получает уведомления от правоохранительных органов. В них её оповещают об обвинении новых лиц, у которых были обнаружены запрещённые материалы.
Настоящее имя истца неизвестно — она судится под псевдонимом. Тем не менее поверенный Джеймс Марш заявил, что около 2680 жертв подобного насилия могут иметь право на компенсацию.
Ранее мы писали про исследователей из Имперского колледжа Лондона, которые показали лёгкий способ обмануть систему сканирования медиаконтента.