Программист подставил себе лицо Илона Маска в видеоконференциях Zoom

Программист подставил себе лицо Илона Маска в видеоконференциях Zoom

Программист подставил себе лицо Илона Маска в видеоконференциях Zoom

Технологии дипфейков стали настолько продвинутыми, что теперь позволяют подставить себе лицо любого человека в режиме реального времени. При этом выглядит всё до определённой степени реалистично. Такой трюк продемонстрировал недавно один из специалистов.

Программист Али Алиев использовал открытый исходный код «First Order Motion Model for Image Animation», который написали специалисты Трентского университета.

Как правило, для успешной замены лица нужно «скормить» алгоритму несколько фотографий человека, которым вы хотите представиться. Однако в этом случае разработка позволяет подстраивать изображение в режиме реального времени.

Алиев опубликовал на YouTube видео, на котором он подставил себе лицо Илона Маска, после чего принимал участие в различных видеоконференциях Zoom для демонстрации эффекта.

Глаза и голова двигаются вполне правдоподобно, что позволяет на несколько секунд ввести собеседников в заблуждение. После этого, если участники видеозвонка присмотрятся, они без сомнений различат подделку.

Алиев разместил программу на GitHub, назвав её «Avatarify». Для использования вам потребуются знания программирования и мощный игровой компьютер.

Недавно мы опубликовали статью «Технологии Deepfake как угроза информационной безопасности», в которой вы найдёте больше информации об этих способах.

У криминального ИИ-сервиса WormGPT украли данные 19 тысяч подписчиков

На популярном онлайн-форуме, посвященном утечкам, появилось сообщение о взломе ИИ-платформы, специально созданной для нужд киберкриминала. К посту прикреплен образец добычи — персональные данные, якобы принадлежащие юзерам WormGPT.

По словам автора атаки, ему суммарно удалось украсть информацию о 19 тыс. подписчиков хакерского ИИ-сервиса, в том числе их имейлы, ID и детали платежей.

Эксперты Cybernews изучили слитый образец февральских записей из базы и обнаружили, что они действительно содержат пользовательские данные и дополнительные сведения:

  • тип подписки;
  • валюта, в которой производилась оплата;
  • суммарная выручка по тому же тарифному плану.

Автор поста об атаке на WormGPT — хорошо известный форумчанин, на счету которого множество легитимных публикаций. Этот факт, по мнению исследователей, придает еще больше веса утверждению о взломе криминального ИИ-сервиса.

Утечка пользовательской базы WormGPT позволяет идентифицировать авторов атак с применением этого ИИ-инструмента. Злоумышленники могут ею воспользоваться, к примеру, для адресного фишинга или шантажа.

RSS: Новости на портале Anti-Malware.ru