Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google выпустила очередное обновление своей технологии reCAPTCHA, которую используют для борьбы с ботами с 2007 года. Новая версия — reCAPTCHA v3 — является полностью пересмотренной системой, к которой мы ранее привыкли.

Одним из плюсов новой версии оказалось отсутствие необходимости участия пользователя в процессе. То есть это не будет похоже ни на reCAPTCHA v1, где все пытались распознать текст на картинке, ни на reCAPTCHA v2, где всех раздражали бесконечные клики на изображениях (отнимали порой по 2-3 минуты).

Таким образом, reCAPTCHA v3 будет использовать новую технологию Google, которая способна распознать и выучить нормальный трафик веб-сайта и поведения пользователя. В корпорации заявили, что активно изучают, насколько часто пользователи взаимодействуют с ресурсом и его секциями.

В результате такой подход позволит выявить ненормальное поведение, присущее ботам и вредоносной активности в целом.

Посетители сайта будут наделены некими «очками риска», которые будут присваиваться на основе источника и действий, которые они хотят совершить на сайте. Очки будут в диапазоне от 0.1 (плохой) до 1 (хороший). Администраторы ресурсов смогут сами для себя решить, как поступать с тем или иным статусом.

Это можно сделать, добавив тег «action» на свои страницы или на целую секцию страниц, которые владельцы сайтов хотят защитить. Эти теги позволят Google автоматически применять действия.

Вся система намного сложнее, чем предыдущая reCAPTCHA v2, но у владельцев сайтов было достаточно времени для ее тестирования — с мая прошлого года.

reCAPTCHA v3 будет официально доступна уже на этой неделе, больше информации о ней можно найти на официальном сайте и в презентации Google.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru