Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Согласно исследованию компании MWS, более 60% россиян не могут отличить изображения, сгенерированные нейросетями, от настоящих фотографий. Одно из таких изображений более 80% участников приняли за подлинное.

Как сообщает «РИА Новости», исследование включало показ 10 изображений: 6 из них были настоящими фотографиями, 3 — сгенерированы нейросетью, применяемой для создания дипфейков, и ещё одно — создано большой языковой моделью на основе текстового описания.

По результатам исследования, большинство участников смогли распознать изображение, созданное большой языковой моделью. Однако в случае с дипфейками ситуация оказалась противоположной: общее количество правильных ответов не превышало 40%, при этом половина опрошенных приняли настоящие фотографии за подделку.

«Это связано со специализацией моделей: нейросети, предназначенные исключительно для генерации лиц, за последние годы достигли высокой точности в передаче текстуры кожи, симметрии черт лица и светотеневых переходов. Благодаря этому итоговое изображение практически невозможно отличить от настоящей фотографии», — пояснили в MWS.

Для формирования безопасной цифровой среды в компании считают необходимым введение обязательной маркировки нейросетевого контента — прежде всего в маркетинге и рекламе, а также повышение защищённости финансовых и государственных сервисов и развитие программ по цифровой грамотности. Полные результаты исследования будут представлены на конференции ЦИПР.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Первый иск к OpenAI: родители винят ChatGPT в трагедии подростка

В США подан первый иск против OpenAI, качающийся суицида несовершеннолетнего. Родители 16-летнего Адама Рейна утверждают, что их сын на протяжении нескольких месяцев обсуждал с ChatGPT свои планы покончить с собой, а затем свёл счёты с жизнью.

Обычно потребительские чат-боты с ИИ оснащены защитными механизмами: если пользователь говорит о намерении причинить себе вред, система должна предлагать помощь или контакты горячих линий.

В случае Адама как пишет The New York Times, это действительно происходило — однако подростку удалось обойти защиту, объяснив, что информация о методах суицида нужна ему для «фиктивного рассказа».

OpenAI в блоге признала уязвимость подхода: модели лучше справляются с короткими диалогами, а в длинных переписках часть «обучения на безопасности» постепенно теряет эффективность. Компания утверждает, что продолжает совершенствовать свои продукты, чтобы надёжнее реагировать на чувствительные темы.

Проблема, впрочем, не ограничивается одной корпорацией. Подобный иск подан и против Character.AI, а случаи, когда ИИ-чат-боты оказывались вовлечены в трагедии или вызывали у пользователей иллюзии и навязчивые идеи, фиксировались и раньше.

История Адама стала первым судебным прецедентом против OpenAI и, вероятно, откроет новую главу дискуссии о том, где проходит граница ответственности разработчиков ИИ за последствия общения их систем с людьми.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru