При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

Исследование, проведенное в Университете Восточной Англии, подтвердило парадоксальность поведения пользователей в отношении приватности. Осознавая риски, они соглашаются на использование личных данных в обмен на привилегии, однако повтором такой просьбы можно получить значительно больше конфиденциальной информации, чем объект изначально собирался раскрыть.

В психологии это явление известно как эффект «нога в двери» (foot-in-the-door): человека, откликнувшегося на пустяковую просьбу, легче склонить к выполнению более обременительных требований. По всей видимости, люди подсознательно хотят быть последовательными, и уступчивость при повторе возрастает, несмотря на осознание рисков.

«Нас все время просят выдать персональные данные: оформить подписку на газету, отключить блокировку рекламы, поучаствовать в опросе клиентов, — комментирует соавтор исследования д-р Пирс Флеминг. — Может прийти письмо с просьбой слегка увеличить сумму ежемесячного пожертвования, или при очередном входе в соцсеть потребуется добавить в профиль данные школы / места работы. Ответные действия могут создать небольшие неудобства, например, увеличить объемы почтового мусора, а могут повлечь и более тяжкие последствия, такие как кража личных данных».

Решив выяснить, почему пользователи раскрывают много персональной информации, забывая о защите от сторонних глаз, университетские исследователи провели два теста. В первом случае они воссоздали в лабораторных условиях реальную ситуацию в интернете; в качестве испытуемых выступили добровольцы – студенты.

У 27 участников выяснили привычки в отношении приватности и попросили раскрыть ПДн (рост, вес, телефонный номер, мнение об иммиграции, абортах, политике и т. п.). Затем им предложили «продать» информацию по выбору, выложив ее на две недели на специально созданном сайте.

На следующем этапе сумму денежного вознаграждения увеличили и попросили решить, сколько дополнительных личных данных можно оставить «в паблике» еще на две недели (не уточняя, чьи это будут ПДн). Все испытуемые показали схожие результаты — в среднем четыре позиции сверх прежнего объема.

Для второго теста замеры поведенческих параметров и степени заботы о защите приватности проводились дважды и для удобства были вынесены онлайн. Контрольную группу расширили до 132 участников; им тоже предложили поделиться ПДн в два приема, и результаты оказались аналогичными.

Таким образом, оказалось, что намерение скрыть большинство своих данных легко обойти повторным запросом, и во избежание злоупотреблений бизнес и потребители должны договориться о приемлемом уровне раскрытия. При повторных запросах можно, к примеру, напоминать пользователям о необходимости защиты приватности, — по мнению исследователей, это должно дать искомый эффект.

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru