Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Исследователи из AIRI, Сколтеха, MWS AI и МФТИ по-новому решили одну из наиболее сложных задач компьютерного зрения — выявление изображений с нелогичным содержанием, вроде рыцаря с мобильником или пингвина на велосипеде.

Разработанный ими метод TLG (Through the Looking Glass, «В Зазеркалье») использует ИИ для создания текстовых описаний картинок и обнаружения противоречий при сопоставлении с визуальным содержанием.

В комментарии для «Известий» один из соавторов проекта, доктор компьютерных наук Александр Панченко пояснил: существующие ИИ-модели хорошо распознают элементы картинок, но плохо улавливают контекст — далеко не всегда понимают совместимость представленных объектов с точки зрения здравого смысла.

Чтобы проверить действенность своего подхода, экспериментаторы создали датасет, включив него 824 изображения с нелепыми ситуациями. Тестирование алгоритма показало точность распознавания до 87,5%, что на 0,5-15% выше показателей других существующих моделей, а также большую экономию вычислительных ресурсов.

Новаторская разработка, по словам Панченко, способна повысить надежность систем компьютерного зрения. После доработки и дообучения ее также можно будет использовать для модерации контента — к примеру, для выявления фейковых фото.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

У мошенников недостаточно данных для качественных дипфейков

Технический директор «Лаборатории Касперского» Антон Иванов на полях форума «Финополис» отметил, что злоумышленники пока лишь пробуют использовать дипфейки в реальном времени. Для создания действительно качественных подделок у них недостаточно исходных данных.

«Злоумышленники могут связываться с потенциальной жертвой в мессенджерах, по видеосвязи. Мы видим, что они пытаются использовать дипфейки в реальном времени для обмана людей. Однако пока это не массовое явление», — заявил представитель компании в комментарии для РИА Новости.

По словам Антона Иванова, для создания дипфейков злоумышленники используют изображения людей, доступные в открытых источниках. Такие подделки чаще всего применяются в схемах социальной инженерии — чтобы вызвать доверие у потенциальной жертвы, выдавая себя за знакомого человека. Целью может быть побуждение жертвы перейти по ссылке, открыть файл или перевести деньги, чаще всего под предлогом материальной помощи. Однако из-за недостатка данных такие дипфейки обычно выглядят неубедительно.

При этом в случае целевых атак, направленных на конкретного человека, ситуация меняется. Как подчеркнул Антон Иванов, в таких случаях злоумышленники способны создавать гораздо более реалистичные дипфейки, но для этого требуются серьёзные затраты на сбор данных и высокие технические навыки. Даже при этом подделку можно распознать по характерным признакам — неестественной мимике, отсутствию бликов и отражений, размытым или искажённым контурам.

Между тем, как показало совместное исследование Контур.Толк и Контур.Эгида, почти половина россиян опасается, что их изображения могут быть использованы для создания дипфейков. Особенно эти опасения распространены среди руководителей и сотрудников, занимающих ответственные должности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru