Эксперты показали, как реклама на Facebook может различать пользователей

Эксперты показали, как реклама на Facebook может различать пользователей

Эксперты показали, как реклама на Facebook может различать пользователей

В новом исследовании ИТ-специалистов из Испании и Австрии демонстрируется использование инструментов Facebook для таргетированной рекламы в целях доставки объявлений конкретным пользователям социальной сети. Для этого достаточно лишь знать о предпочтениях человека.

В документе под названием "Unique on Facebook: Formulation and Evidence of (Nano)targeting Individual Users with non-PII Data" (PDF) эксперты описывают модель, с помощью которой можно идентифицировать уникального пользователя.

Например, исследователи смогли задействовать инструмент Facebook Ads для отображения ряда специальных рекламных объявлений конкретному пользователю Facebook. При этом данные объявления больше не увидит ни один юзер.

Специалисты утверждают, что их беспокоит использование рекламных инструментов Facebook в злонамеренных целях. Учитывая потенциальную опасность, имеет ли право корпорация Цукерберга обрабатывать и хранить персональные данные пользователей, раскрывающие его предпочтения?

Фактически опубликованное исследование может создать дополнительное давление на законодателей, что в итоге приведёт к запрету сбора информации, касающейся интересов владельцев Facebook-аккаунтов.

Помимо этого, специалисты подняли вопрос важности независимых исследований, которые будут вскрывать проблемы навязчивой таргетированной рекламы и её возможного влияния на конфиденциальность пользователей.

«Наши тесты показали, что 4 специфических интересов или 22 случайных могут идентифицировать пользователя Facebook в рамках социальной площадки. Сам Facebook будет узнавать таких юзеров с 90-процентной точностью», — отметили исследователи.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru