Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Почти две трети россиян не отличают реальное фото от дипфейка

Согласно исследованию компании MWS, более 60% россиян не могут отличить изображения, сгенерированные нейросетями, от настоящих фотографий. Одно из таких изображений более 80% участников приняли за подлинное.

Как сообщает «РИА Новости», исследование включало показ 10 изображений: 6 из них были настоящими фотографиями, 3 — сгенерированы нейросетью, применяемой для создания дипфейков, и ещё одно — создано большой языковой моделью на основе текстового описания.

По результатам исследования, большинство участников смогли распознать изображение, созданное большой языковой моделью. Однако в случае с дипфейками ситуация оказалась противоположной: общее количество правильных ответов не превышало 40%, при этом половина опрошенных приняли настоящие фотографии за подделку.

«Это связано со специализацией моделей: нейросети, предназначенные исключительно для генерации лиц, за последние годы достигли высокой точности в передаче текстуры кожи, симметрии черт лица и светотеневых переходов. Благодаря этому итоговое изображение практически невозможно отличить от настоящей фотографии», — пояснили в MWS.

Для формирования безопасной цифровой среды в компании считают необходимым введение обязательной маркировки нейросетевого контента — прежде всего в маркетинге и рекламе, а также повышение защищённости финансовых и государственных сервисов и развитие программ по цифровой грамотности. Полные результаты исследования будут представлены на конференции ЦИПР.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

PromptLock стал первым вымогателем с применением технологий ИИ

Исследователи из ESET рассказали о появлении необычного образца вредоноса — это первая известная программа-вымогатель, которая использует искусственный интеллект для локальных операций. Новый софт получил название PromptLock.

Он написан на Go и задействует открытую языковую модель GPT-OSS:20b — её можно запускать без ограничений со стороны вендора.

По сути, внутри зашиты промпты, которые позволяют вредоносу генерировать Lua-скрипты прямо на ходу. Эти скрипты умеют сканировать файловую систему, проверять содержимое, выгружать данные и даже шифровать их.

Для шифрования используется алгоритм SPECK (128 бит). Работает это как в Windows, так и в Linux — благодаря кросс-платформенным скриптам.

При этом ESET подчёркивает: перед нами пока только концепт, а не реальный боевой инструмент. Для атаки нужно, чтобы на машине жертвы был запущен Ollama API — локальный сервер для работы с моделью. А это серьёзное требование к ресурсам, которое в «обычной» инфраструктуре встречается редко.

Кроме того, у злоумышленников должно совпасть несколько условий: слабая сегментация сети, отсутствие защитных правил для промптов, открытый трафик к портам и протоколам LLM.

Пока что разрушительные функции в PromptLock не реализованы, и в реальных кибератаках его не видели. Но сам факт появления подобного кода говорит о новом этапе эволюции зловредов. ESET прямо пишет: важно не паниковать, а готовиться.

«Рост ИИ-вредоносов открывает новую главу в кибербезопасности. Мы делимся находкой, чтобы вызвать дискуссию и подтолкнуть отрасль к исследованиям и готовности», — заявили специалисты.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru