Эксперты создали систему видеоаналитики Privid с упором на приватность

Эксперты создали систему видеоаналитики Privid с упором на приватность

Эксперты создали систему видеоаналитики Privid с упором на приватность

В Массачусетском технологическом институте создали аналитическую систему обработки видеоданных, позволяющую поддерживать общественный порядок без навязчивой слежки. Продукт, получивший имя Privid, также помогает снизить риски в отношении злоупотреблений и утечки частных данных.

Подобную систему, по словам авторов проекта, можно использовать для мониторинга плотности транспортных и пеших потоков на дорогах, сбора статистики по ношению масок, оценки поведения покупателей в магазинах. К сожалению, в таких случаях приватность объектов наблюдения часто упускается из виду, в лучшем случае лица людей скрываются с помощью мозаики или дополнительного непрозрачного слоя.

Такой метод имеет свои недостатки: выявить соотношение театралов в масках и без, например, становится невозможным, к тому же система может ошибиться и оставить лицо неразмытым. Исследователей из MIT такое положение дел не устроило, поэтому они решили поискать альтернативу, способную гарантировать большую степень конфиденциальности материалам, получаемым с камер видеонаблюдения.

Система Privid построена на принципах дифференциальной приватности — методики, позволяющей собирать и расшаривать статистические данные без раскрытия информации, идентифицирующей личность (PII). Чтобы предотвратить деанонимизацию и утечки, продукт добавляет на выходе случайные данные в видеоматериалы. Этого шума совсем немного — ровно столько, сколько требуется для сохранения анонимности, в противном случае информация станет бесполезной.

Разработчики также предусмотрели дополнительный элемент случайности. Целевое видео разбивается на фрагменты одинаковой длительности, которые обрабатываются по отдельности, без вывода промежуточных результатов, а затем вновь соединяются.

Созданную в стенах MIT систему видеоаналитики можно использовать вместе с вошедшими в обиход глубокими нейросетями. Тестирование Privid на разных наборах данных и в различных сценариях показало точность на уровне 79-99% в сравнении с аналогами, не учитывающими приватность.

X запретила Grok «раздевать» людей на изображениях после скандала

Платформа X (прежний Twitter) Илона Маска объявила о новых ограничениях для своего ИИ-бота Grok после волны международной критики и расследований, связанных с генерированием непристойных изображений реальных людей — включая женщин и детей. Об этом компания сообщила 14 января.

Поводом стал резонанс вокруг так называемого Spicy Mode, который позволял с помощью простых текстовых запросов «раздевать» людей на фотографиях — например, «надень на неё бикини» или «убери одежду».

Эти возможности вызвали шквал жалоб, блокировки сервиса в отдельных странах и проверку со стороны регуляторов.

В X заявили, что приняли технические меры, чтобы пресечь подобные сценарии. В частности, компания начнёт блокировать по геолокации возможность создавать или редактировать изображения людей в «откровенной одежде» — бикини, нижнем белье и аналогичных образах — в тех юрисдикциях, где такие действия нарушают закон.

«Мы внедрили технологические ограничения, которые не позволяют Grok редактировать изображения реальных людей в откровенной одежде, включая бикини», — говорится в заявлении команды безопасности X.

Ограничения распространяются на всех пользователей, включая платных подписчиков.

Кроме того, в качестве «дополнительного уровня защиты» X решила оставить генерацию и редактирование изображений через Grok только для платных аккаунтов. В компании считают, что это позволит снизить риски злоупотреблений.

На ситуацию уже отреагировали европейские регуляторы. В Еврокомиссии заявили, что внимательно изучают дополнительные меры, принятые X, и проверят, действительно ли они способны защитить пользователей в ЕС. Представитель комиссии Томас Ренье отметил, что речь идёт о реакции на острую критику из-за непристойных изображений.

По данным недавнего исследования некоммерческой организации AI Forensics, более половины из 20 тысяч проанализированных изображений, созданных Grok, показывали людей в минимальном количестве одежды. Большинство из них — женщины, а около 2% персонажей выглядели как несовершеннолетние.

RSS: Новости на портале Anti-Malware.ru