Половина россиян опасается использования своих дипфейк-двойников

Половина россиян опасается использования своих дипфейк-двойников

Половина россиян опасается использования своих дипфейк-двойников

Как показало исследование Контур.Толк и Контур.Эгида, половина опрошенных опасается, что мошенники могут сгенерировать их изображение с помощью нейросетей. При этом руководители и сотрудники на ключевых должностях подвержены такому риску особенно сильно.

В опросе Контур.Толк и Контур.Эгида приняли участие 1200 работающих россиян. По его данным, о существовании технологий дипфейков хотя бы слышали 60% респондентов.

Четверть участников отметили, что видели изображения знаменитостей, созданные ИИ. Еще 13% слышали о подобных случаях от знакомых, а 7% сталкивались с дипфейками лично.

По мнению 46% опрошенных, технологии дипфейков опасны для любого человека, поскольку мошенники могут использовать поддельные изображения, голоса и видео для обмана. 37% считают, что под наибольшим риском находятся знаменитости — блогеры, актёры и музыканты. 34% назвали уязвимой категорией политиков, а 28% — руководителей и сотрудников на ответственных должностях.

Только треть участников опроса признались, что не уверены в своей способности распознать дипфейк. Более половины (52%) уверены, что смогут отличить фальшивку от оригинала, а 16% абсолютно в этом уверены.

При проверке информации 31% сравнивают несколько источников, 20% уточняют данные у знакомых или коллег, 17% обращаются к официальным сайтам и аккаунтам компаний. Каждый шестой доверяет интуиции, а каждый четвёртый вовсе ничего не перепроверяет.

Роман Теплоухов, системный аналитик Контур.Толка и эксперт Центра ИИ в Контуре, отмечает:

«Всё больше бизнес-процессов переходит в онлайн, но сервисов видеосвязи недостаточно для точной идентификации собеседников. Топ-менеджерам и руководителям важно быть уверенными, что на совещании действительно присутствуют те, за кого себя выдают».

Даниил Бориславский, эксперт по информационной безопасности Контур.Эгиды и директор по продукту Staffcop, прокомментировал результаты исследования так:

«Почти половина опрошенных даже не догадывается о существовании дипфейков, что делает их самой уязвимой категорией для атак. Защищаться от угрозы, о которой не знаешь, невозможно. Ещё одна проблема — избыточное доверие: люди склонны верить знакомым лицам и голосам, и именно на этом строится социальная инженерия с использованием дипфейков. Радует, что базовые навыки проверки неожиданных запросов у людей начинают формироваться. Это значит, что бизнес может превратить сотрудников из потенциального слабого звена в надёжную линию обороны».

В Telegram появился ИИ-помощник Mira, интегрированный с Cocoon

Компания The Open Platform, разработчик продуктов для экосистемы Telegram, объявила о запуске ИИ-ассистента Mira. Он работает полностью внутри мессенджера и обрабатывает запросы непосредственно в чате.

С помощью Mira можно проводить поиск информации, отвечать на вопросы собеседников, создавать картинки и видео. Текстовый доступ к ИИ-помощнику бесплатен, а для промптов на основе фото и видео нужны токены, которые можно купить за «звезды» (внутренняя валюта Telegram).

Новинка работает в двух режимах. В приватном все запросы проходят через децентрализованную сеть Cocoon и обрабатываются с упором на конфиденциальность — с применением шифрования и без сохранения данных.

В стандартном режиме Mira запоминает промпты и предпочтения пользователя, учитывает контекст диалогов и подстраивается под стиль общения. При выполнении задач используются несколько моделей: для текстовых запросов — ChatGPT, для создания изображений — Nano Banana, для генерации видео — WAN 2.2 от Alibaba Cloud.

В дальнейшем планируется распространить доступ к ИИ на закрытые чаты, каналы и группы, а также расширить функциональность умного помощника: научить его делать саммари чатов, создавать уникальные ИИ-персонажи. Появится Pro-версия с расширенным списком генераторов текстов, фото, видео, будет реализована интеграция Mira с криптокошельком Telegram.

RSS: Новости на портале Anti-Malware.ru