Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google ужесточает свои меры по блокировке экстремистских и связанных с терроризмом видео на своих площадках. Для этого компания использует сочетание компьютерного и человеческого мониторинга.

Аналогичные меры были обнародованы на прошлой неделе Facebook, по сути, две компании следуют призыву стран Большой семерки, которые заинтересованы в том, чтобы ликвидировать экстремистский контент в сети.

«Несмотря на то, что мы много лет работали над тем, чтобы выявлять и удалять такого рода контент, стоит признать, что можно и нужно делать для этого больше» - говорится в блоге Кента Уокера (Kent Walker), юриста Google.

Уокера сказал, что Google выделит больше ресурсов для искусственного интеллекта, задача которого удалять видеоролики YouTube, используемые в поддержку экстремистских действий.

«Это может быть сложной задачей - видеоролик о террористической атаке может представлять собой новость. Вообще очень много зависит от того, в каком контексте загружен ролик» - сказал Уокер.

Теперь Google планирует применить самые современные исследования в области машинного обучения. Однако, по словам компании, технология сама по себе не может решить эту проблему, в этом случае придется значительно увеличит количество независимых экспертов, отслеживающих загружаемый контент.

«Машины могут помочь выявить проблематичные видеоролики, но эксперты по-прежнему играют определенную роль в тонкой идентификации, что собой представляет ролик – пропаганду насилия или религиозную речь» - продолжает Уокер.

Google планирует добавить 50 неправительственных организаций для фильтрации контента. Аналогичная инициатива была озвучена на прошлой неделе Facebook, которая ранее заявила, что нанимает 3000 сотрудников для отслеживания и удаления видеоматериалов с насилием.

Хактивисты Forbidden Hyena применяют ИИ для атак на российские компании

Хактивистская группировка Forbidden Hyena начала использовать искусственный интеллект для разработки своих инструментов при атаках на российские компании. Об этом сообщили специалисты BI.ZONE Threat Intelligence, обнаружившие командный сервер кластера.

Forbidden Hyena заявила о себе в начале 2025 года. Среди её целей — органы госуправления, а также организации из сфер здравоохранения, энергетики, инженерии, ретейла и ЖКХ.

Аналитики BI.ZONE нашли на сервере группировки несколько скриптов с явными признаками ИИ-генерации. В их числе — два PowerShell-скрипта: один предназначался для закрепления в системе, другой — для установки AnyDesk на устройство жертвы. Также был обнаружен Bash-скрипт для загрузки и запуска обфусцированного импланта Sliver — инструмента, изначально созданного для пентеста.

По словам руководителя BI.ZONE Threat Intelligence Олега Скулкина, признаки использования ИИ заметны по структуре кода: в скриптах присутствуют отладочные строки, подробные комментарии, понятные названия переменных и отсутствует обфускация — приёмы запутывания кода, которые обычно применяют злоумышленники при самостоятельной разработке.

При этом, по оценке экспертов, такие инструменты пока остаются довольно шаблонными и примитивными. В 2025 году доля атак на российские компании с использованием ИИ не превышала 1%. Тем не менее тренд на вредоносное использование искусственного интеллекта, вероятно, будет усиливаться, а атаки станут сложнее.

Сценарий атаки предполагал загрузку ранее неизвестного трояна удалённого доступа BlackReaperRAT, который позволял скрытно управлять заражённым устройством. Финальной целью было шифрование инфраструктуры и требование выкупа. Для этого злоумышленники использовали обновлённую версию шифровальщика Blackout Locker, переименованного в Milkyway.

По данным BI.ZONE, во втором полугодии 2025 года заметен ещё один тренд: доля атак, совершаемых по идеологическим мотивам, снизилась с 20% до 12%, а хактивистские группы всё чаще совмещают свои кампании с классическим вымогательством.

RSS: Новости на портале Anti-Malware.ru