Dropbox ответил на обвинения в некорректном расшаривании данных

Dropbox ответил на обвинения в некорректном расшаривании данных

Dropbox ответил на обвинения в некорректном расшаривании данных

Проведенное экспертами Северо-Западного университета исследование показало, что Dropbox предоставил им доступ к данным проектов 400 000 пользователей из 1000 университетов за двухлетний период. Популярный файловый хостинг не признает свою вину, не совсем понимая, в чем заключаются претензии.

Dropbox в своем заявлении утверждает, что любая личная информация были анонимизирована, следовательно, исследователи не могли ее увидеть.

В этой ситуации сейчас не просто разобраться, однако у ученых подобная ситуация вызвала справедливое негодование, даже учитывая, что данные были анонимизированы. Некоторые из них обратились к Dropbox с соответствующими вопросами.

Авторы статьи утверждают, что в данном случае речь не идет о проблеме с конфиденциальностью данных.

«Прежде чем предоставлять исследователям данные, Dropbox анонимизировал их, сделав любую личную информацию неразборчивой».

Представители файлового хостинга описали эту ситуацию следующим образом:

«Исследование подпадает под действие нашей политики конфиденциальности, которая подразумевает, что Dropbox и его доверенные третьи стороны могут анализировать совместную деятельность для совершенствования нашего сервиса».

В Google Chrome теперь можно выключать ИИ-защиту от спама

Google продолжает аккуратно внедрять ИИ в Chrome и одновременно даёт пользователям чуть больше контроля. В браузере появилась возможность удалить локальные ИИ-модели, которые используются для работы функции Enhanced Protection («Расширенная защита»).

Сама Enhanced Protection существует в Chrome уже несколько лет, но в прошлом году Google тихо прокачала её с помощью ИИ.

Тогда компания заявила о «защите в реальном времени» от опасных сайтов, загрузок и расширений, не вдаваясь в подробности, как именно работает новый механизм.

Предположительно, ИИ помогает браузеру быстрее распознавать подозрительные паттерны — в том числе на сайтах, которые ещё не попали в чёрные списки Google. Кроме того, такая защита глубже анализирует загружаемые файлы и пытается выявить вредоносные признаки ещё до запуска.

Теперь стало известно главное: эти ИИ-модели хранятся прямо на устройстве пользователя. И при желании от них можно избавиться.

Как отметил пользователь Leo, в настройках Chrome появился новый переключатель. Чтобы удалить локальную ИИ-модель, достаточно зайти в Chrome → Настройки → Система и отключить пункт On-device GenAI. После этого браузер удаляет ИИ-компоненты, отвечающие за работу «умной» защиты.

 

Интересно, что, судя по формулировкам в интерфейсе, локальные ИИ-модели в Chrome будут использоваться не только для защиты от мошенничества и вредоносных сайтов. Похоже, Google готовит почву для других функций на базе локального ИИ — без постоянной передачи данных в облако.

Пока нововведение доступно в Chrome Canary, но, как обычно, через некоторое время оно должно добраться и до стабильной версии браузера.

RSS: Новости на портале Anti-Malware.ru