В Израиле придумали маску, защищающую от технологий распознавания лиц

В Израиле придумали маску, защищающую от технологий распознавания лиц

В Израиле придумали маску, защищающую от технологий распознавания лиц

На ткань или бумагу наносят определенный рисунок. Паттерн не даёт технологиям распознать человека в маске. Шаблон справляется с видеосистемами по всему миру, но исследователи говорят, что камеры можно “натаскать”.

Пандемия COVID-19 сделала ношение масок привычной практикой, что сначала сильно тормозило работу систем распознавания лиц по всему миру. Со временем технологии адаптировались — теперь обычная медицинская или любая дизайнерская маска не мешает установить личность.

Ученые из Бен-Гуриона и Тель-Авива решили проверить гипотезу: можно ли создать такую маску, которая не поддается системам распознавания лиц. 

Исследователи экспериментировали с разными рисунками и градиентами. В итоге они получили шаблон, который ставит в тупик любую FRT (Facial recognition technology). Маска по очертаниям напоминает строение черепа — на ткани прослеживается рот, нос, скулы и даже часть глаз. Всё это окрашено в сложный градиент “радужных” цветов. 

“Мы проверили эффективность нашей маски в полевых условиях, — говорят исследователи. — Система смогла идентифицировать только 3% участников. Пол не имеет значения”.

Человека в обычной маске камера узнает в 80% случаев. Ученые говорят, что придуманный шаблон не является единственно возможным. При желании можно разработать модель под каждую технологию, на которой сегодня работают мировые системы распознавания лиц.

Исследователи считают, что и с этой угрозой можно справиться. Например, настроить так системы, чтобы они расценивали любую надетую на лицо маску как простую медицинскую. Это поможет технике не “растеряться”. 

Еще один “рабочий” вариант — научить камеры восстанавливать нижнюю часть лица, ориентируясь только на верхнюю. 

“Существует популярное направление — генеративно-состязательная сеть (GAN), — рассказывает аспирант Алон Золфи, руководивший исследованием “враждебных” масок. — Оно использует известные “входные данные” и дорабатывает портрет. Правда, это “тяжелый” подход: он требует совершенно другой архитектуры технических решений и обучения. Большую роль в этом процессе играет и человек, который стоит за камерой”.

В отчёте (PDF) специалисты поделились ссылкой на видео, демонстрирующее эффективность их разработки. Мы приводим ролик ниже:

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Во Владивостоке распространяют видеодипфейк о повышении платы за проезд

В Сети распространилось видео, в котором мэр Владивостока Константин Шестаков якобы заявляет о повышении стоимости проезда в городском транспорте на 50% из-за дефицита топлива. Ролик быстро начали транслировать местные СМИ, вызвав резонанс среди горожан. Однако в действительности это оказался дипфейк, созданный с использованием технологий нейросетей.

Администрация города оперативно выпустила опровержение, подчеркнув, что видео не является подлинным. Для проверки был задействован комплекс «Зефир», разработанный АНО «Регионы», который подтвердил, что ролик действительно сгенерирован искусственным интеллектом.

Администрация Приморского края также опровергла информацию о росте цен. Губернатор края заявил, что ситуацию контролируют антимонопольные органы и дефицита топлива в регионе не допускают.

Как отметил телеграм-канал «Лапша Медиа», в основе поддельного ролика оказалось видео от 25 августа, где Шестаков предупреждал жителей о надвигающихся ливнях.

По данным «Лапша Медиа», распространение подобных дипфейков не ограничивается Владивостоком. Похожие видео появляются и в других регионах страны. Их распространению способствует непростая ситуация на топливном рынке: сезонный рост спроса и проблемы с логистикой приводят к дефициту и росту цен.

Накануне МВД России сообщило, что атаки с использованием дипфейков приобрели массовый характер. Чаще всего они связаны с попытками обманом получить деньги, представляясь друзьями или знакомыми потенциальной жертвы.

В 2025 году также фиксируется заметный рост числа дипфейков политической направленности. Чаще всего «героями» таких видео становятся губернаторы российских регионов. Эксперты отмечают, что подобные подделки становятся инструментом для манипуляции общественными настроениями.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru