Браузер Vivaldi теперь блокирует Google FLoC, отслеживание пользователей

Браузер Vivaldi теперь блокирует Google FLoC, отслеживание пользователей

Браузер Vivaldi теперь блокирует Google FLoC, отслеживание пользователей

С выходом Vivaldi 3.8 пользователи норвежского браузера получили возможность избавиться от всплывающих уведомлений, с помощью которых сайты пытаются получить согласие на установку куки-файлов. Новая опция Cookie Crumbler позволяет заблокировать эти надоедливые диалоговые окна оптом, чтобы не терять каждый раз время, выбирая, какие куки разрешить, а какие отклонить.

Согласно GDPR (европейскому регламенту о защите персональных данных), использующие куки сайты должны предупреждать об этом пользователей и заручиться их согласием на внедрение таких данных в браузер. Это требование было введено в ЕС из лучших побуждений, но привело к появлению многочисленных попап-окон, отнимающих время у пользователей и вызывающих раздражение.

Новая функция Vivaldi позволяет настроить браузер таким образом, чтобы он работал с куки-файлами самостоятельно, скрывая связанные с ними сообщения на сайтах или блокируя сервисы, запрашивающие согласие пользователя. Блокировка при этом осуществляется на основании черных списков, составляемых в рамках проектов EasyList и I Don’t Care About Cookies.

Разработчики Vivaldi признают, что их решение далеко от совершенства. Способы получения согласия на установку куки могут быть различными, и все предусмотреть невозможно. Кроме того, некоторые сайты попросту не откроются или будут работать некорректно, если разрешения не последует.

«Зачастую пользователи автоматически принимают файлы Cookie, не понимая того, что тем самым они дают разрешение на сбор информации о себе, — комментирует Йон фон Течнер (Jon Stephenson von Tetzchner), основатель Vivaldi Technologies. — Некоторые веб-сайты не работают без файлов Cookie, что ставит пользователей в безвыходное положение. Я считаю, что эта система сбора пользовательских данных должна быть наконец упразднена. Ни у кого нет права собирать о вас информацию с вашим и, тем более, без вашего разрешения».

В браузере также отключили FLoC — технологию Google, позволяющую собирать данные о поведении пользователей и передавать их рекламодателям без использования куки. Это нововведение, призванное повысить конфиденциальность пользователей, вызвало неоднозначную реакцию в ИТ-кругах.

Создатели Brave и Vivaldi, например, выступили с резкой критикой, отметив, что теперь об интересах пользователей будут знать не только рекламодатели, но также все сайты с включенным FLoC. Поскольку Vivaldi работает на том же движке, что и Chrome, поддержка этой технологии неизбежно появилась и в нем, что никак не устраивало команду Vivaldi Technologies.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru