Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Согласно исследованию компании MWS, более 60% россиян не могут отличить изображения, сгенерированные нейросетями, от настоящих фотографий. Одно из таких изображений более 80% участников приняли за подлинное.

Как сообщает «РИА Новости», исследование включало показ 10 изображений: 6 из них были настоящими фотографиями, 3 — сгенерированы нейросетью, применяемой для создания дипфейков, и ещё одно — создано большой языковой моделью на основе текстового описания.

По результатам исследования, большинство участников смогли распознать изображение, созданное большой языковой моделью. Однако в случае с дипфейками ситуация оказалась противоположной: общее количество правильных ответов не превышало 40%, при этом половина опрошенных приняли настоящие фотографии за подделку.

«Это связано со специализацией моделей: нейросети, предназначенные исключительно для генерации лиц, за последние годы достигли высокой точности в передаче текстуры кожи, симметрии черт лица и светотеневых переходов. Благодаря этому итоговое изображение практически невозможно отличить от настоящей фотографии», — пояснили в MWS.

Для формирования безопасной цифровой среды в компании считают необходимым введение обязательной маркировки нейросетевого контента — прежде всего в маркетинге и рекламе, а также повышение защищённости финансовых и государственных сервисов и развитие программ по цифровой грамотности. Полные результаты исследования будут представлены на конференции ЦИПР.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Во Владивостоке распространяют видеодипфейк о повышении платы за проезд

В Сети распространилось видео, в котором мэр Владивостока Константин Шестаков якобы заявляет о повышении стоимости проезда в городском транспорте на 50% из-за дефицита топлива. Ролик быстро начали транслировать местные СМИ, вызвав резонанс среди горожан. Однако в действительности это оказался дипфейк, созданный с использованием технологий нейросетей.

Администрация города оперативно выпустила опровержение, подчеркнув, что видео не является подлинным. Для проверки был задействован комплекс «Зефир», разработанный АНО «Регионы», который подтвердил, что ролик действительно сгенерирован искусственным интеллектом.

Администрация Приморского края также опровергла информацию о росте цен. Губернатор края заявил, что ситуацию контролируют антимонопольные органы и дефицита топлива в регионе не допускают.

Как отметил телеграм-канал «Лапша Медиа», в основе поддельного ролика оказалось видео от 25 августа, где Шестаков предупреждал жителей о надвигающихся ливнях.

По данным «Лапша Медиа», распространение подобных дипфейков не ограничивается Владивостоком. Похожие видео появляются и в других регионах страны. Их распространению способствует непростая ситуация на топливном рынке: сезонный рост спроса и проблемы с логистикой приводят к дефициту и росту цен.

Накануне МВД России сообщило, что атаки с использованием дипфейков приобрели массовый характер. Чаще всего они связаны с попытками обманом получить деньги, представляясь друзьями или знакомыми потенциальной жертвы.

В 2025 году также фиксируется заметный рост числа дипфейков политической направленности. Чаще всего «героями» таких видео становятся губернаторы российских регионов. Эксперты отмечают, что подобные подделки становятся инструментом для манипуляции общественными настроениями.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru