Новый метод освещения поможет выявлять дипфейки и поддельные видео

Новый метод освещения поможет выявлять дипфейки и поддельные видео

Новый метод освещения поможет выявлять дипфейки и поддельные видео

Исследователи из Корнелльского университета придумали способ, который может серьёзно помочь в борьбе с поддельными видео. Они предложили встраивать невидимые цифровые водяные знаки прямо в источники света на съёмочной площадке. Эта технология получила название «шумокодированное освещение» (noise-coded illumination) и была представлена 10 августа на конференции SIGGRAPH 2025 в Ванкувере.

Вместо того чтобы встраивать водяные знаки в сам видеофайл (как это делалось раньше и требовало совместимых камер или ПО), новый метод меняет свет, которым освещается сцена.

Камера — хоть профессиональная, хоть обычный смартфон — автоматически «захватывает» эти едва заметные колебания яркости и частоты света. Глазом их не увидеть, но специальный анализ легко их распознаёт.

Программируемые источники (вроде мониторов или студийных ламп) можно закодировать с помощью софта. Обычные лампы тоже подойдут, если оснастить их небольшой микросхемой размером с почтовую марку.

Каждая лампа получает уникальный код, который создаёт что-то вроде «второго видео» — с временной меткой и немного изменённым освещением.

Если кто-то пытается подделать кадры или вставить в них фальшивые элементы, эти кодированные видео тут же «выдают» нестыковки. Пропавшие куски появляются как пробелы, а сгенерированные объекты — как чёрные пятна. Причём в одной сцене можно использовать сразу несколько независимых кодов, что делает задачу подделки ещё сложнее.

 

По словам авторов, технология работает даже в некоторых условиях на улице и одинаково надёжно с людьми разного цвета кожи. Однако они подчёркивают: это не панацея. С развитием генеративного ИИ подделывать видео будет всё проще, а значит, и методы защиты должны постоянно совершенствоваться.

Как отметил один из создателей, профессор Эйб Дэвис, раньше видео считалось доказательством, а теперь его можно «снять» о чём угодно. Это может быть весело, но и опасно, ведь отличить правду от вымысла становится всё труднее.

Нейросеть для ЖКХ научилась материться в первый месяц обучения

Разработчикам отечественного голосового помощника для сферы ЖКХ пришлось «переучивать» систему после того, как в процессе обучения бот освоил ненормативную лексику. Этот случай наглядно показал, насколько критично качество данных, на которых обучаются нейросети.

О возникшей проблеме рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов на Сибирском строительном форуме, который проходит в Новосибирске.

«Приведу забавный случай: нейросеть учится, и буквально уже в первый месяц разработчики обнаружили такую коллизию — нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься. Эту проблему, конечно, пришлось устранять. Но это в том числе показатель активного взаимодействия с нашими гражданами», — рассказал Михаил Викторов.

При этом, по его словам, внедрение ботов позволило сократить число операторов кол-центров в 5–6 раз без потери качества обслуживания. Нейросетевые инструменты способны обрабатывать до 90% входящих обращений.

Уровень удовлетворённости качеством обслуживания, по оценке Викторова, составляет около 80%. Передавать звонки операторам целесообразно лишь в экстренных случаях — например, при аварийных ситуациях.

Эксперты ранее отмечали, что именно данные, на которых обучается ИИ, являются ключевой причиной появления некорректных или предвзятых ответов нейросетевых инструментов.

RSS: Новости на портале Anti-Malware.ru