В Google Messages появилось распознавание обнажёнки в видео

В Google Messages появилось распознавание обнажёнки в видео

В Google Messages появилось распознавание обнажёнки в видео

Google Messages теперь предупреждает пользователей, если в видео есть обнажёнка. Новая функция автоматически определяет наличие нюд-контента и может размывать такие видео по умолчанию — прежде чем вы их откроете.

Ранее система Sensitive Content Warnings в Google Messages работала только с изображениями, но теперь добралась и до видео. Пользователи смогут не только увидеть предупреждение, но и удалить видео, не просматривая его.

Обновление пришло с октябрьским пакетом Google Play Services v25.39, который начали распространять вчера. Однако, как обычно, обновление дойдёт не сразу — многие устройства пока останутся на сентябрьской версии.

 

После активации функция будет автоматически сканировать отправленные и полученные видео и определять, есть ли в них обнажёнка. Анализ выполняется на самом устройстве, без отправки файлов в облако — всё обрабатывается через системный модуль SafetyCore, который уже умеет распознавать нюд-контент на изображениях.

Если видео признано «чувствительным», Google Messages размоет превью и предложит пользователю удалить ролик, прежде чем тот его откроет. Однако по умолчанию эта функция отключена — чтобы включить защиту, нужно вручную зайти в:

Профиль Настройки сообщений Защита и безопасность Управление предупреждениями о чувствительном контенте.

Источник: Android Authority

 

Важно: GIF-анимации пока под действие этой системы не попадают — защита работает только для изображений и видео. В итоге Google делает Messages чуть безопаснее и удобнее, особенно для тех, кто не хочет внезапно открыть «то самое» видео в чате.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Половина россиян опасается использования своих дипфейк-двойников

Как показало исследование Контур.Толк и Контур.Эгида, половина опрошенных опасается, что мошенники могут сгенерировать их изображение с помощью нейросетей. При этом руководители и сотрудники на ключевых должностях подвержены такому риску особенно сильно.

В опросе Контур.Толк и Контур.Эгида приняли участие 1200 работающих россиян. По его данным, о существовании технологий дипфейков хотя бы слышали 60% респондентов.

Четверть участников отметили, что видели изображения знаменитостей, созданные ИИ. Еще 13% слышали о подобных случаях от знакомых, а 7% сталкивались с дипфейками лично.

По мнению 46% опрошенных, технологии дипфейков опасны для любого человека, поскольку мошенники могут использовать поддельные изображения, голоса и видео для обмана. 37% считают, что под наибольшим риском находятся знаменитости — блогеры, актёры и музыканты. 34% назвали уязвимой категорией политиков, а 28% — руководителей и сотрудников на ответственных должностях.

Только треть участников опроса признались, что не уверены в своей способности распознать дипфейк. Более половины (52%) уверены, что смогут отличить фальшивку от оригинала, а 16% абсолютно в этом уверены.

При проверке информации 31% сравнивают несколько источников, 20% уточняют данные у знакомых или коллег, 17% обращаются к официальным сайтам и аккаунтам компаний. Каждый шестой доверяет интуиции, а каждый четвёртый вовсе ничего не перепроверяет.

Роман Теплоухов, системный аналитик Контур.Толка и эксперт Центра ИИ в Контуре, отмечает:

«Всё больше бизнес-процессов переходит в онлайн, но сервисов видеосвязи недостаточно для точной идентификации собеседников. Топ-менеджерам и руководителям важно быть уверенными, что на совещании действительно присутствуют те, за кого себя выдают».

Даниил Бориславский, эксперт по информационной безопасности Контур.Эгиды и директор по продукту Staffcop, прокомментировал результаты исследования так:

«Почти половина опрошенных даже не догадывается о существовании дипфейков, что делает их самой уязвимой категорией для атак. Защищаться от угрозы, о которой не знаешь, невозможно. Ещё одна проблема — избыточное доверие: люди склонны верить знакомым лицам и голосам, и именно на этом строится социальная инженерия с использованием дипфейков. Радует, что базовые навыки проверки неожиданных запросов у людей начинают формироваться. Это значит, что бизнес может превратить сотрудников из потенциального слабого звена в надёжную линию обороны».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru