У мошенников недостаточно данных для качественных дипфейков

У мошенников недостаточно данных для качественных дипфейков

У мошенников недостаточно данных для качественных дипфейков

Технический директор «Лаборатории Касперского» Антон Иванов на полях форума «Финополис» отметил, что злоумышленники пока лишь пробуют использовать дипфейки в реальном времени. Для создания действительно качественных подделок у них недостаточно исходных данных.

«Злоумышленники могут связываться с потенциальной жертвой в мессенджерах, по видеосвязи. Мы видим, что они пытаются использовать дипфейки в реальном времени для обмана людей. Однако пока это не массовое явление», — заявил представитель компании в комментарии для РИА Новости.

По словам Антона Иванова, для создания дипфейков злоумышленники используют изображения людей, доступные в открытых источниках. Такие подделки чаще всего применяются в схемах социальной инженерии — чтобы вызвать доверие у потенциальной жертвы, выдавая себя за знакомого человека. Целью может быть побуждение жертвы перейти по ссылке, открыть файл или перевести деньги, чаще всего под предлогом материальной помощи. Однако из-за недостатка данных такие дипфейки обычно выглядят неубедительно.

При этом в случае целевых атак, направленных на конкретного человека, ситуация меняется. Как подчеркнул Антон Иванов, в таких случаях злоумышленники способны создавать гораздо более реалистичные дипфейки, но для этого требуются серьёзные затраты на сбор данных и высокие технические навыки. Даже при этом подделку можно распознать по характерным признакам — неестественной мимике, отсутствию бликов и отражений, размытым или искажённым контурам.

Между тем, как показало совместное исследование Контур.Толк и Контур.Эгида, почти половина россиян опасается, что их изображения могут быть использованы для создания дипфейков. Особенно эти опасения распространены среди руководителей и сотрудников, занимающих ответственные должности.

Нейросеть для ЖКХ научилась материться в первый месяц обучения

Разработчикам отечественного голосового помощника для сферы ЖКХ пришлось «переучивать» систему после того, как в процессе обучения бот освоил ненормативную лексику. Этот случай наглядно показал, насколько критично качество данных, на которых обучаются нейросети.

О возникшей проблеме рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов на Сибирском строительном форуме, который проходит в Новосибирске.

«Приведу забавный случай: нейросеть учится, и буквально уже в первый месяц разработчики обнаружили такую коллизию — нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься. Эту проблему, конечно, пришлось устранять. Но это в том числе показатель активного взаимодействия с нашими гражданами», — рассказал Михаил Викторов.

При этом, по его словам, внедрение ботов позволило сократить число операторов кол-центров в 5–6 раз без потери качества обслуживания. Нейросетевые инструменты способны обрабатывать до 90% входящих обращений.

Уровень удовлетворённости качеством обслуживания, по оценке Викторова, составляет около 80%. Передавать звонки операторам целесообразно лишь в экстренных случаях — например, при аварийных ситуациях.

Эксперты ранее отмечали, что именно данные, на которых обучается ИИ, являются ключевой причиной появления некорректных или предвзятых ответов нейросетевых инструментов.

RSS: Новости на портале Anti-Malware.ru