Дипфейк видно по глазам, волосам и губам

Дипфейк видно по глазам, волосам и губам

Дипфейк видно по глазам, волосам и губам

Сгенерированные изображения и видео зачастую выдают подделку по ряду характерных признаков: неестественные движения лица, отсутствие бликов и отражений в глазах, размытие или искажение контуров, особенно в области ушей и волос.

На такие детали в поддельных изображениях и роликах обратил внимание руководитель отдела аналитических исследований финтех-компании «Баланс-Платформа» Юрий Богданов в комментарии для «РИА Новости».

Эксперт отметил, что современные генеративные модели способны создавать дипфейки высокого качества, почти неотличимые от оригинала. Однако злоумышленники, как правило, используют упрощённые технологии. Поэтому массовые дипфейки, применяемые в атаках, зачастую можно распознать по ряду визуальных и аудиальных признаков.

Среди них Юрий Богданов выделяет следующие:

  • Неестественная мимика (чрезмерно плавные или резкие движения, рассинхрон речи и губ, отсутствие моргания или его нерегулярность);
  • Артефакты на границах лица (размытие, искажения волос, ушей, освещение лица не совпадает с фоном);
  • Отсутствие бликов и отражений в глазах;
  • Несовпадение эмоций: выражение лица не соответствует интонации речи;
  • Искажения в голосе — «роботизированное» звучание, неестественные паузы, сбитая интонация.

Чаще всего мошенники используют дипфейки в схемах, связанных со знакомствами. С их помощью создаются виртуальные персонажи, от имени которых злоумышленники выманивают деньги у жертв, нередко прибегая к сложным манипуляциям подобного рода.

Кроме того, уже второй год подряд наблюдается резкий рост количества дипфейков политической направленности. Чаще всего в таких видео используются образы губернаторов российских регионов в различных контекстах.

Несколько перспективных техник, основанных на дипфейках, мы разобрали в отдельной статье.

Каждый десятый россиянин использует ИИ для создания рабочих паролей

Как выяснили в «Лаборатория Касперского» и hh.ru, часть россиян уже доверяет нейросетям даже такую важную задачу, как создание паролей для рабочих аккаунтов. По данным совместного опроса, каждый десятый использует ИИ для генерации паролей к корпоративным сервисам.

Ещё 6% применяют нейросети для управления паролями или их хранения. Это уже выглядит рискованнее: если пользователь вводит в ИИ-сервис лишние данные, они потенциально могут оказаться вне контроля компании.

В целом большинство пользователей пока относятся к такой практике осторожно. Но есть и те, кто готов доверять ИИ даже в вопросах с высокой ценой ошибки.

Так, 11% опрошенных заявили, что могли бы поручить нейросети создание паролей для рабочих ресурсов с конфиденциальной информацией. Столько же признались, что в некоторых случаях доверяют ИИ в генерации паролей больше, чем себе.

Эксперты напоминают: сама идея создать сложную комбинацию с помощью технологии не плоха. Проблема начинается, когда человек в запросе указывает название компании, конкретный сервис или другие детали, которые лучше не светить во внешней системе. Кроме того, предложенный нейросетью пароль не стоит использовать в исходном виде.

В «Лаборатории Касперского» советуют безопаснее подходить к таким сценариям: не передавать ИИ конфиденциальные данные, просить несколько вариантов и затем собирать собственную комбинацию.

Для компаний более надёжным вариантом остаются корпоративные менеджеры паролей, где можно централизованно управлять учётными данными и контролировать правила безопасности.

RSS: Новости на портале Anti-Malware.ru