В Google Messages появилось распознавание обнажёнки в видео

В Google Messages появилось распознавание обнажёнки в видео

В Google Messages появилось распознавание обнажёнки в видео

Google Messages теперь предупреждает пользователей, если в видео есть обнажёнка. Новая функция автоматически определяет наличие нюд-контента и может размывать такие видео по умолчанию — прежде чем вы их откроете.

Ранее система Sensitive Content Warnings в Google Messages работала только с изображениями, но теперь добралась и до видео. Пользователи смогут не только увидеть предупреждение, но и удалить видео, не просматривая его.

Обновление пришло с октябрьским пакетом Google Play Services v25.39, который начали распространять вчера. Однако, как обычно, обновление дойдёт не сразу — многие устройства пока останутся на сентябрьской версии.

 

После активации функция будет автоматически сканировать отправленные и полученные видео и определять, есть ли в них обнажёнка. Анализ выполняется на самом устройстве, без отправки файлов в облако — всё обрабатывается через системный модуль SafetyCore, который уже умеет распознавать нюд-контент на изображениях.

Если видео признано «чувствительным», Google Messages размоет превью и предложит пользователю удалить ролик, прежде чем тот его откроет. Однако по умолчанию эта функция отключена — чтобы включить защиту, нужно вручную зайти в:

Профиль Настройки сообщений Защита и безопасность Управление предупреждениями о чувствительном контенте.

Источник: Android Authority

 

Важно: GIF-анимации пока под действие этой системы не попадают — защита работает только для изображений и видео. В итоге Google делает Messages чуть безопаснее и удобнее, особенно для тех, кто не хочет внезапно открыть «то самое» видео в чате.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru