Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google запускает reCAPTCHA v3 — действия юзера теперь не требуются

Google выпустила очередное обновление своей технологии reCAPTCHA, которую используют для борьбы с ботами с 2007 года. Новая версия — reCAPTCHA v3 — является полностью пересмотренной системой, к которой мы ранее привыкли.

Одним из плюсов новой версии оказалось отсутствие необходимости участия пользователя в процессе. То есть это не будет похоже ни на reCAPTCHA v1, где все пытались распознать текст на картинке, ни на reCAPTCHA v2, где всех раздражали бесконечные клики на изображениях (отнимали порой по 2-3 минуты).

Таким образом, reCAPTCHA v3 будет использовать новую технологию Google, которая способна распознать и выучить нормальный трафик веб-сайта и поведения пользователя. В корпорации заявили, что активно изучают, насколько часто пользователи взаимодействуют с ресурсом и его секциями.

В результате такой подход позволит выявить ненормальное поведение, присущее ботам и вредоносной активности в целом.

Посетители сайта будут наделены некими «очками риска», которые будут присваиваться на основе источника и действий, которые они хотят совершить на сайте. Очки будут в диапазоне от 0.1 (плохой) до 1 (хороший). Администраторы ресурсов смогут сами для себя решить, как поступать с тем или иным статусом.

Это можно сделать, добавив тег «action» на свои страницы или на целую секцию страниц, которые владельцы сайтов хотят защитить. Эти теги позволят Google автоматически применять действия.

Вся система намного сложнее, чем предыдущая reCAPTCHA v2, но у владельцев сайтов было достаточно времени для ее тестирования — с мая прошлого года.

reCAPTCHA v3 будет официально доступна уже на этой неделе, больше информации о ней можно найти на официальном сайте и в презентации Google.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru