Половина россиян опасается использования своих дипфейк-двойников

Половина россиян опасается использования своих дипфейк-двойников

Половина россиян опасается использования своих дипфейк-двойников

Как показало исследование Контур.Толк и Контур.Эгида, половина опрошенных опасается, что мошенники могут сгенерировать их изображение с помощью нейросетей. При этом руководители и сотрудники на ключевых должностях подвержены такому риску особенно сильно.

В опросе Контур.Толк и Контур.Эгида приняли участие 1200 работающих россиян. По его данным, о существовании технологий дипфейков хотя бы слышали 60% респондентов.

Четверть участников отметили, что видели изображения знаменитостей, созданные ИИ. Еще 13% слышали о подобных случаях от знакомых, а 7% сталкивались с дипфейками лично.

По мнению 46% опрошенных, технологии дипфейков опасны для любого человека, поскольку мошенники могут использовать поддельные изображения, голоса и видео для обмана. 37% считают, что под наибольшим риском находятся знаменитости — блогеры, актёры и музыканты. 34% назвали уязвимой категорией политиков, а 28% — руководителей и сотрудников на ответственных должностях.

Только треть участников опроса признались, что не уверены в своей способности распознать дипфейк. Более половины (52%) уверены, что смогут отличить фальшивку от оригинала, а 16% абсолютно в этом уверены.

При проверке информации 31% сравнивают несколько источников, 20% уточняют данные у знакомых или коллег, 17% обращаются к официальным сайтам и аккаунтам компаний. Каждый шестой доверяет интуиции, а каждый четвёртый вовсе ничего не перепроверяет.

Роман Теплоухов, системный аналитик Контур.Толка и эксперт Центра ИИ в Контуре, отмечает:

«Всё больше бизнес-процессов переходит в онлайн, но сервисов видеосвязи недостаточно для точной идентификации собеседников. Топ-менеджерам и руководителям важно быть уверенными, что на совещании действительно присутствуют те, за кого себя выдают».

Даниил Бориславский, эксперт по информационной безопасности Контур.Эгиды и директор по продукту Staffcop, прокомментировал результаты исследования так:

«Почти половина опрошенных даже не догадывается о существовании дипфейков, что делает их самой уязвимой категорией для атак. Защищаться от угрозы, о которой не знаешь, невозможно. Ещё одна проблема — избыточное доверие: люди склонны верить знакомым лицам и голосам, и именно на этом строится социальная инженерия с использованием дипфейков. Радует, что базовые навыки проверки неожиданных запросов у людей начинают формироваться. Это значит, что бизнес может превратить сотрудников из потенциального слабого звена в надёжную линию обороны».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

77% корпоративных пользователей вставляют личные данные в запросы к ChatGPT

Согласно новому исследованию компании LayerX, всё больше сотрудников корпораций отправляют в ChatGPT личные и платёжные данные — от номеров карт до информации, по которой можно идентифицировать человека. И нередко делают это с личных, незащищённых аккаунтов, что превращает ИИ-инструменты в потенциальный канал утечки данных.

Отчёт Enterprise AI and SaaS Data Security 2025 отмечает, что 45% сотрудников компаний уже используют генеративный ИИ, а 77% из них копируют и вставляют данные прямо в запросы к чат-ботам. Более чем в 20% случаев среди этих данных встречается персональная или платёжная информация.

LayerX фиксирует такие взаимодействия через корпоративное браузерное расширение, которое отслеживает активность в веб-приложениях. По его данным, 82% всех вставок происходят из личных, неуправляемых аккаунтов, что делает их полностью невидимыми для систем безопасности компании.

Руководитель LayerX Ор Эшед в комментарии для The Register напомнил, что подобные инциденты уже случались: например, в 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как один из них случайно загрузил в чат фрагменты внутреннего кода.

По словам Эшеда, такие утечки могут не только повлечь нарушения регламентов, но и вызвать геополитические риски — если данные попадают в зарубежные ИИ-модели, включая китайские.

Интересно, что при этом ChatGPT стал де-факто стандартом корпоративного ИИ. По данным LayerX, более 90% сотрудников, использующих ИИ, обращаются именно к ChatGPT. Для сравнения: Google Gemini используют 15%, Claude — 5%, а Microsoft Copilot — всего 2–3%.

Сама Microsoft недавно удивила многих, заявив, что поддержит использование личных Copilot-аккаунтов в корпоративных средах Microsoft 365 — фактически легализуя «теневые» ИТ-практики, когда сотрудники пользуются неофициальными инструментами.

В целом использование генеративного ИИ в корпоративных сетях растёт: сейчас такие сервисы занимают около 11% всего трафика приложений — почти столько же, сколько почта и онлайн-встречи (по 20%), и больше, чем Slack или Salesforce.

Эксперты LayerX предупреждают: пока пользователи массово несут данные в ChatGPT, CISO-командам стоит уделить внимание SSO и централизованной аутентификации. Без этого контролировать потоки данных и предотвратить утечки становится почти невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru