Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google усиливает меры борьбы с экстремизмом

Google ужесточает свои меры по блокировке экстремистских и связанных с терроризмом видео на своих площадках. Для этого компания использует сочетание компьютерного и человеческого мониторинга.

Аналогичные меры были обнародованы на прошлой неделе Facebook, по сути, две компании следуют призыву стран Большой семерки, которые заинтересованы в том, чтобы ликвидировать экстремистский контент в сети.

«Несмотря на то, что мы много лет работали над тем, чтобы выявлять и удалять такого рода контент, стоит признать, что можно и нужно делать для этого больше» - говорится в блоге Кента Уокера (Kent Walker), юриста Google.

Уокера сказал, что Google выделит больше ресурсов для искусственного интеллекта, задача которого удалять видеоролики YouTube, используемые в поддержку экстремистских действий.

«Это может быть сложной задачей - видеоролик о террористической атаке может представлять собой новость. Вообще очень много зависит от того, в каком контексте загружен ролик» - сказал Уокер.

Теперь Google планирует применить самые современные исследования в области машинного обучения. Однако, по словам компании, технология сама по себе не может решить эту проблему, в этом случае придется значительно увеличит количество независимых экспертов, отслеживающих загружаемый контент.

«Машины могут помочь выявить проблематичные видеоролики, но эксперты по-прежнему играют определенную роль в тонкой идентификации, что собой представляет ролик – пропаганду насилия или религиозную речь» - продолжает Уокер.

Google планирует добавить 50 неправительственных организаций для фильтрации контента. Аналогичная инициатива была озвучена на прошлой неделе Facebook, которая ранее заявила, что нанимает 3000 сотрудников для отслеживания и удаления видеоматериалов с насилием.

Рынку DevSecOps не хватает специалистов, а зарплаты идут вверх

На российском рынке безопасной разработки становится всё заметнее перекос между спросом и предложением. По данным совместного анализа HH.ru и ГК «Солар», специалистов в этой области сейчас требуется примерно в три раза больше, чем реально есть на рынке.

Аналитики отмечают, что в 2025 году вакансии по безопасной разработке составили 4,8% от общего числа предложений в сфере ИБ, тогда как резюме таких специалистов — только 1,5%. Иными словами, бизнесу нужны DevSecOps- и AppSec-специалисты, но найти их всё сложнее.

Проблема, как считают эксперты, не только в кадровом голоде как таковом. Речь уже идёт о более глубоком дисбалансе: рынок хочет специалистов нового типа, а система подготовки кадров не успевает за этим запросом. В результате компаниям всё чаще приходится «выращивать» таких сотрудников внутри — переучивать разработчиков, тестировщиков и других технических специалистов под задачи безопасной разработки.

На этом фоне ожидаемо ускоряется и рост зарплат. По итогам 2025 года начинающим специалистам по безопасной разработке с опытом от года до трёх лет предлагали от 107 тыс. до 140 тыс. рублей. Специалисты среднего уровня могли рассчитывать уже на 193–260 тыс. рублей, а опытные профессионалы — на 330–420 тыс. рублей.

Такой разброс, по сути, показывает, насколько дорогими стали зрелые кадры в этой сфере. Чем выше квалификация, тем сильнее цена ошибки — и тем дороже обходится специалист работодателю.

Расходы бизнеса на такие команды тоже быстро растут. По оценке HR-специалистов «Солара», годовой фонд оплаты труда команды безопасной разработки даже в относительно компактной конфигурации начинается примерно от 9,3 млн рублей. А более сильные и опытные составы уже требуют 25–26 млн рублей в год и выше.

На этом фоне компании всё активнее смотрят в сторону ИИ-инструментов. Но не как на полноценную замену инженерам, а скорее как на способ снять с них часть рутины: например, ускорить проверку кода, первичный анализ уязвимостей или подготовку вариантов исправлений. При этом, как подчёркивают эксперты, результаты работы таких систем всё равно должны проверять люди — особенно если речь идёт о серьёзных задачах AppSec.

По оценке «Солара», использование специализированных LLM-моделей в закрытом контуре может сократить годовой ФОТ AppSec-команд на 20–50% — в зависимости от масштаба разработки. Но это не отменяет главного: окончательное решение всё равно должно оставаться за инженером, а не за моделью.

В целом рынок движется к довольно понятной точке. DevSecOps и AppSec перестают быть чем-то факультативным или «для крупных компаний». Безопасность всё чаще встраивают прямо в процесс разработки, потому что исправлять уязвимости на ранних этапах заметно дешевле, чем разбираться с последствиями уже после запуска.

По приведённым оценкам, стоимость устранения уязвимости может вырасти в 10 раз на поздних этапах разработки, в 640 раз — на этапе запуска приложения и в 1000 раз, если проблема уже привела к ИБ-инциденту в работающем продукте.

На этом фоне растёт и спрос на специалистов, которые умеют работать не только с классическими ИБ-задачами, но и с инструментами автоматизации анализа кода — SAST и DAST, а также понимают саму разработку. Всё более ценными становятся инженеры с опытом в Python, Go, Java, а не только с администраторским или инфраструктурным бэкграундом.

RSS: Новости на портале Anti-Malware.ru