Эксперты создали систему видеоаналитики Privid с упором на приватность

Эксперты создали систему видеоаналитики Privid с упором на приватность

Эксперты создали систему видеоаналитики Privid с упором на приватность

В Массачусетском технологическом институте создали аналитическую систему обработки видеоданных, позволяющую поддерживать общественный порядок без навязчивой слежки. Продукт, получивший имя Privid, также помогает снизить риски в отношении злоупотреблений и утечки частных данных.

Подобную систему, по словам авторов проекта, можно использовать для мониторинга плотности транспортных и пеших потоков на дорогах, сбора статистики по ношению масок, оценки поведения покупателей в магазинах. К сожалению, в таких случаях приватность объектов наблюдения часто упускается из виду, в лучшем случае лица людей скрываются с помощью мозаики или дополнительного непрозрачного слоя.

Такой метод имеет свои недостатки: выявить соотношение театралов в масках и без, например, становится невозможным, к тому же система может ошибиться и оставить лицо неразмытым. Исследователей из MIT такое положение дел не устроило, поэтому они решили поискать альтернативу, способную гарантировать большую степень конфиденциальности материалам, получаемым с камер видеонаблюдения.

Система Privid построена на принципах дифференциальной приватности — методики, позволяющей собирать и расшаривать статистические данные без раскрытия информации, идентифицирующей личность (PII). Чтобы предотвратить деанонимизацию и утечки, продукт добавляет на выходе случайные данные в видеоматериалы. Этого шума совсем немного — ровно столько, сколько требуется для сохранения анонимности, в противном случае информация станет бесполезной.

Разработчики также предусмотрели дополнительный элемент случайности. Целевое видео разбивается на фрагменты одинаковой длительности, которые обрабатываются по отдельности, без вывода промежуточных результатов, а затем вновь соединяются.

Созданную в стенах MIT систему видеоаналитики можно использовать вместе с вошедшими в обиход глубокими нейросетями. Тестирование Privid на разных наборах данных и в различных сценариях показало точность на уровне 79-99% в сравнении с аналогами, не учитывающими приватность.

В России хотят поставить на учет учебные материалы для ИИ-моделей

Минцифры РФ готовит законопроект, обязывающий разработчиков раскрывать сведения о наборах данных, используемых для обучения ИИ-моделей. Инициатива пока обсуждается в профильных ведомствах и сообществах игроков рынка.

Как выяснили «Ведомости», создатели подобных решений должны будут указывать наименование набора для тренинга, дату его создания, формат, объем и происхождение. В перспективе возможно создание специализированного реестра для ИИ.

Предложение выдвинуто в рамках работы правительства над регулированием сферы ИИ. Пока лишь известно, что разрабатываемый закон определит критерии российского происхождения нейросетей, закрепит право на авторство, обязанности и ответственность разработчиков, а также введет маркировку ИИ-контента.

Параллельно российские власти работают над мерами противодействия использованию ИИ в противоправных целях. Предложено даже признать применение ИИ отягчающим обстоятельством при совершении преступлений.

Предложение Минцифры о раскрытии источников обучающих данных для больших языковых моделей пока не принято на рассмотрение. Опрошенные новостным изданием эксперты сомневаются, что иностранные вендоры вроде OpenAI, Microsoft, Google, Perplexity будут соблюдать это требование.

По идее, новая инициатива должна повысить доверие к ИИ, возможность независимой оценки качества таких решений и дисциплины работы с данными. В то же время нововведение, скорее всего, потребует создания специального реестра, который будет заполняться формально из-за увеличения нагрузки на разработчиков, заинтересованных в скорейшем выводе ИИ-решений на рынок.

В то же время эксперты отметили, что в условиях дефицита качественных и юридически чистых наборов данных для обучения ИИ раскрытие их происхождения будет способствовать формированию нового коммерческого рынка.

Использование данных, взятых из открытых источников и без ведома владельцев создает риски утечки конфиденциальной информации и порождает конфликт интересов в случаях нарушения авторских прав. Подобные ситуации вынуждают создателей ИИ-моделей более внимательно относиться к подбору учебных данных и в случае необходимости покупать права на контент либо заключать договоры на использование.

В настоящее время закона, регулирующего сферу ИИ, в России нет; в законодательстве даже отсутствуют нужные определения. Освоение таких технологий пока осуществляется в соответствии с утвержденной указом Президента стратегией развития ИИ до 2030 года.

По этой причине попытки госрегулирования пока носят декларативный или рекомендательный характер. Так, в конце прошлого года было выдвинуто предложение о создании технических стандартов по ИИ и продвижение их на международном уровне.

Минцифры также определилось с требованиями к ПАК для ИИ и собирается создать киберполигон для проверки безопасности ИИ-систем, предназначенных для использования на критически важных объектах.

RSS: Новости на портале Anti-Malware.ru