Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Согласно исследованию компании MWS, более 60% россиян не могут отличить изображения, сгенерированные нейросетями, от настоящих фотографий. Одно из таких изображений более 80% участников приняли за подлинное.

Как сообщает «РИА Новости», исследование включало показ 10 изображений: 6 из них были настоящими фотографиями, 3 — сгенерированы нейросетью, применяемой для создания дипфейков, и ещё одно — создано большой языковой моделью на основе текстового описания.

По результатам исследования, большинство участников смогли распознать изображение, созданное большой языковой моделью. Однако в случае с дипфейками ситуация оказалась противоположной: общее количество правильных ответов не превышало 40%, при этом половина опрошенных приняли настоящие фотографии за подделку.

«Это связано со специализацией моделей: нейросети, предназначенные исключительно для генерации лиц, за последние годы достигли высокой точности в передаче текстуры кожи, симметрии черт лица и светотеневых переходов. Благодаря этому итоговое изображение практически невозможно отличить от настоящей фотографии», — пояснили в MWS.

Для формирования безопасной цифровой среды в компании считают необходимым введение обязательной маркировки нейросетевого контента — прежде всего в маркетинге и рекламе, а также повышение защищённости финансовых и государственных сервисов и развитие программ по цифровой грамотности. Полные результаты исследования будут представлены на конференции ЦИПР.

Google упростила удаление личных данных и интимных фото из поиска

В интернете всегда найдётся кто-то, кто хочет узнать о вас больше, чем следовало бы. К счастью, у Google есть инструменты, которые помогают убрать лишнее из поисковой выдачи. Компания обновила сервис Results About You, который ищет и помогает удалить из выдачи страницы с вашими персональными данными.

Теперь инструмент умеет находить не только адреса и телефоны, но и номера документов, включая паспорт, водительские права и даже номер социального страхования (для США).

Чтобы система знала, что искать, пользователю нужно заранее добавить часть этих данных в настройках. Для водительских прав требуется полный номер, а для паспорта или SSN — только последние четыре цифры. После этого Google будет периодически сканировать выдачу и присылать уведомления, если найдёт совпадения.

Важно понимать: контент не исчезает из Сети полностью, но перестаёт отображаться в поиске Google, что для большинства пользователей уже существенно снижает риски.

Обновление коснулось и инструмента для удаления интимных изображений, опубликованных без согласия человека. Речь идёт как о реальных фото, так и о дипфейках и других сгенерированных ИИ материалах.

Теперь пожаловаться на такие изображения стало проще: достаточно нажать на три точки рядом с картинкой в поиске, выбрать «Удалить результат» и указать, что это интимное изображение. Google уточнит, настоящее это фото или дипфейк, а затем запустит проверку.

Кроме того, теперь можно добавлять сразу несколько изображений в одну заявку, что особенно актуально в эпоху, когда генеративный ИИ позволяют создавать подобный контент буквально за минуты.

Google также добавила возможность мониторинга: если функция включена, система будет автоматически отслеживать появление новых подобных изображений и предупреждать пользователя.

Поиск по ID уже доступен в Results About You. Обновлённый инструмент для удаления интимного контента начнёт появляться в ближайшие дни и будет постепенно распространяться на разные страны.

RSS: Новости на портале Anti-Malware.ru