Facebook говорит, что исправила проблему со следящими файлами-cookie

Facebook говорит, что исправила проблему со следящими файлами-cookie

...

Социальная сеть Facebook говорит, что "исправила" файлы-идентификаторы (cookie), которые позволяли ей отслеживать пользователей даже после того, как те уходили с сайта Facebook. Несколько дней назад данная особенность была выявлена австралийским блогером, который заявил, что подобную практику слежки Facebook использует уже минимум год. Подобные заявления наделали в западном интернете довольно много шума.



По словам блогера, слежка за пользователями может быть проведена только на тех сторонних сайтах, которые интегрированы с Facebook или имеют скоординированную систему сбора статистики. После данных заявлений австралийский комиссар по вопросам безопасности данных заявил, что начинает расследование данного инцидента.

Впрочем, в самой Facebook говорят, что в данных файлах-cookie не видят никакого нарушения безопасности. "Facebook не хранил и не использовал ту информацию, которую не должен был использовать. Как и многие сайты в интернете, персонализирующие контент и пытающиеся предоставить безопасные данные для конкретного пользователя, мы помещаем cookie на его компьютер", - говорят в Facebook.

"Три подобных файла-идентификатора включали в себя уникальные пользовательские идентификаторы, которые оставались и после того, как пользователь уходил с Facebook. Однако сама социальная сеть не хранила подобных идентификаторов и не использовала их для слежки за пользователями",- заверили в компании.

Сам австралийский блогер Ник Кубрилович говорит, что публично разместил информацию о cookie в своем блоге в воскресенье, хотя саму Facebook предупреждал о проблеме еще год назад. От социальной сети ответа и реакции не последовало.

"Несмотря на то, что Facebook провела некоторые изменения политик, я бы все же посоветовал пользователям, заботящимся о своей безопасности, вручную удалять cookie или использовать для работы с Facebook отдельный браузер", - говорит блогер.

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru