При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

При повторном запросе пользователи раскрывают больше ПДн, несмотря на риски

Исследование, проведенное в Университете Восточной Англии, подтвердило парадоксальность поведения пользователей в отношении приватности. Осознавая риски, они соглашаются на использование личных данных в обмен на привилегии, однако повтором такой просьбы можно получить значительно больше конфиденциальной информации, чем объект изначально собирался раскрыть.

В психологии это явление известно как эффект «нога в двери» (foot-in-the-door): человека, откликнувшегося на пустяковую просьбу, легче склонить к выполнению более обременительных требований. По всей видимости, люди подсознательно хотят быть последовательными, и уступчивость при повторе возрастает, несмотря на осознание рисков.

«Нас все время просят выдать персональные данные: оформить подписку на газету, отключить блокировку рекламы, поучаствовать в опросе клиентов, — комментирует соавтор исследования д-р Пирс Флеминг. — Может прийти письмо с просьбой слегка увеличить сумму ежемесячного пожертвования, или при очередном входе в соцсеть потребуется добавить в профиль данные школы / места работы. Ответные действия могут создать небольшие неудобства, например, увеличить объемы почтового мусора, а могут повлечь и более тяжкие последствия, такие как кража личных данных».

Решив выяснить, почему пользователи раскрывают много персональной информации, забывая о защите от сторонних глаз, университетские исследователи провели два теста. В первом случае они воссоздали в лабораторных условиях реальную ситуацию в интернете; в качестве испытуемых выступили добровольцы – студенты.

У 27 участников выяснили привычки в отношении приватности и попросили раскрыть ПДн (рост, вес, телефонный номер, мнение об иммиграции, абортах, политике и т. п.). Затем им предложили «продать» информацию по выбору, выложив ее на две недели на специально созданном сайте.

На следующем этапе сумму денежного вознаграждения увеличили и попросили решить, сколько дополнительных личных данных можно оставить «в паблике» еще на две недели (не уточняя, чьи это будут ПДн). Все испытуемые показали схожие результаты — в среднем четыре позиции сверх прежнего объема.

Для второго теста замеры поведенческих параметров и степени заботы о защите приватности проводились дважды и для удобства были вынесены онлайн. Контрольную группу расширили до 132 участников; им тоже предложили поделиться ПДн в два приема, и результаты оказались аналогичными.

Таким образом, оказалось, что намерение скрыть большинство своих данных легко обойти повторным запросом, и во избежание злоупотреблений бизнес и потребители должны договориться о приемлемом уровне раскрытия. При повторных запросах можно, к примеру, напоминать пользователям о необходимости защиты приватности, — по мнению исследователей, это должно дать искомый эффект.

Фальшивый блокировщик рекламы для ChatGPT оказался аддоном-шпионом

OpenAI недавно начала тестировать рекламу в ChatGPT для части пользователей бесплатного тарифа, и уже появились желающие быстро заработать на новой теме. Исследователи из DomainTools обнаружили в Chrome Web Store вредоносное расширение ChatGPT Ad Blocker, которое обещало убрать рекламу из чат-бота, а на деле воровало пользовательские переписки.

OpenAI действительно в последние месяцы начала тесты рекламы в ChatGPT для части пользователей Free и Go, поэтому приманка выглядела вполне правдоподобно.

По данным DomainTools, расширение позиционировалось как «бесплатный и лёгкий» способ «убрать рекламу и оставить ИИ», но его основная задача была совсем другой.

После установки оно внедряло скрипт в страницу ChatGPT, копировало содержимое активного окна чата, сохраняло структуру переписки и большую часть текста, а затем отправляло этот дамп через жёстко прописанный Discord-вебхук в закрытый канал. Исследователи отдельно пишут, что таким образом утекали не только запросы пользователя, но и метаданные, и состояние интерфейса.

 

Аддон клонировал HTML страницы ChatGPT, убирал часть визуальных элементов вроде стилей и картинок, но оставлял текст и логику диалога. При этом редактировались только очень длинные текстовые фрагменты, а обычные промпты и ответы в большинстве случаев сохранялись целиком. DomainTools также указывает, что похищенные данные принимал Discord-бот с говорящим именем Captain Hook.

Отдельно исследователи связывают расширение с GitHub-аккаунтом krittinkalra, который, по их данным, пересекается с проектами AI4ChatCo и Writecream. На этом фоне авторы отчёта задаются вопросом: не используются ли похожие механики сбора данных и в других продуктах, связанных с этой же персоной. Прямых доказательств этого в отчёте нет, но сам сигнал имеется.

RSS: Новости на портале Anti-Malware.ru