Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google ужесточает свои меры по блокировке экстремистских и связанных с терроризмом видео на своих площадках. Для этого компания использует сочетание компьютерного и человеческого мониторинга.

Аналогичные меры были обнародованы на прошлой неделе Facebook, по сути, две компании следуют призыву стран Большой семерки, которые заинтересованы в том, чтобы ликвидировать экстремистский контент в сети.

«Несмотря на то, что мы много лет работали над тем, чтобы выявлять и удалять такого рода контент, стоит признать, что можно и нужно делать для этого больше» - говорится в блоге Кента Уокера (Kent Walker), юриста Google.

Уокера сказал, что Google выделит больше ресурсов для искусственного интеллекта, задача которого удалять видеоролики YouTube, используемые в поддержку экстремистских действий.

«Это может быть сложной задачей - видеоролик о террористической атаке может представлять собой новость. Вообще очень много зависит от того, в каком контексте загружен ролик» - сказал Уокер.

Теперь Google планирует применить самые современные исследования в области машинного обучения. Однако, по словам компании, технология сама по себе не может решить эту проблему, в этом случае придется значительно увеличит количество независимых экспертов, отслеживающих загружаемый контент.

«Машины могут помочь выявить проблематичные видеоролики, но эксперты по-прежнему играют определенную роль в тонкой идентификации, что собой представляет ролик – пропаганду насилия или религиозную речь» - продолжает Уокер.

Google планирует добавить 50 неправительственных организаций для фильтрации контента. Аналогичная инициатива была озвучена на прошлой неделе Facebook, которая ранее заявила, что нанимает 3000 сотрудников для отслеживания и удаления видеоматериалов с насилием.

На активность ботов приходится 41% всех атак

Доля активности ботов в российском вредоносном трафике превысила 41%. При этом их действия всё точнее имитируют легитимное поведение пользователей, из-за чего такие атаки сложнее блокировать и своевременно выявлять. Чем убедительнее боты «маскируются» под людей, тем выше потенциальный ущерб и тем труднее обнаружить атаку на ранней стадии.

Об активизации «умных ботов» сообщил ТАСС со ссылкой на F6 и RED Security.

«Для каждого запроса создается уникальный IP-адрес и цифровой отпечаток устройства. "Интеллектуальный бот" во всем старается подражать человеку: кликает в разные точки страницы или приложения, делает паузы разной длительности между кликами и запросами, открывает в одном браузере несколько страниц одного и того же сервиса. Боты более низкого уровня действуют однотипно», — рассказали в F6.

Глава направления бизнес-аналитики RED Security Савва Ливчин в комментарии ТАСС отметил, что всё более широкое использование продвинутых алгоритмов позволяет ботам эффективнее обходить защитные механизмы. В F6 основным последствием «поумневших» ботов назвали быстрое исчерпание ресурсов приложений.

В RED Security значительный всплеск активности злонамеренных ботов фиксировали ещё в конце 2024 года: доля сгенерированного ими трафика достигла 30%. По данным F6, к концу 2025 года показатель вырос до 41%. В 2026 году тенденция, по оценкам компаний, сохраняется.

По данным StormWall, в 2025 году активность вредоносных ботов в России выросла в 1,7 раза. Это связывают с активностью хактивистов, высокой долей уязвимых устройств и геополитической ситуацией.

RSS: Новости на портале Anti-Malware.ru