reCAPTCHA — не преграда для ботов, зато собирает кучу данных о юзерах

reCAPTCHA — не преграда для ботов, зато собирает кучу данных о юзерах

reCAPTCHA — не преграда для ботов, зато собирает кучу данных о юзерах

На YouTube опубликован ролик, призванный доказать, что тесты reCAPTCHA v2 и v3 плохо защищают от ботов и используются Google для слежки и сбора пользовательских данных с целью персонализации рекламы.

Предположив, что reCAPTCHA v3 отслеживает движение курсора на экране, автор видео, использующий ник CHUPPL, создал бот, способный обойти это препятствие за одну попытку.

Ему также стало известно, что CAPTCHA от Google собирают множество информации, идентифицирующей посетителей сайтов, такой как IP-адрес, модель устройства, ОС, тип и версия браузера, разрешение экрана.

Эти данные помогают отсеивать ботов, но могут также использоваться для получения цифровых отпечатков, облегчающих отслеживание интернет-активности пользователей.

 

Система reCAPTCHA v2 преграждает вход на сайты картинками, на выбор которых юзеры вынуждены тратить время, тогда как бот может пройти такой тест быстрее.

Разработчик постарался решить эту проблему с выпуском reCAPTCHA v3. Доказать, что ты не робот, можно за один клик, однако исследования показали, что современные боты с успехом обходят и это препятствие, притом с эффективностью до 100%.

По оценкам, стоимость трекинговых данных, собираемых Google с помощью CAPTCHA, составляет около $898 миллиардов. Не желая потворствовать сомнительной деятельности, многие владельцы сайтов перешли на CAPTCHA от Cloudflare.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru