В России растет количество политических дипфейков

В России растет количество политических дипфейков

В России растет количество политических дипфейков

Согласно данным Global Fact-Checking Network, за первые три месяца 2025 года количество дипфейков политической тематики в России превысило 65% от общего показателя за весь 2024 год. Основными героями таких видео чаще всего становятся губернаторы.

В течение 2024 года Global Fact-Checking Network, созданная в декабре ТАСС, АНО «Диалог Регионы» и АНО «Мастерская новых медиа», как сообщает «Коммерсант», зафиксировала 61 уникальный дипфейк и 2,3 тыс. его копий.

Это в 3,6 раза больше по сравнению с итогами 2023 года. Особенно заметный всплеск активности был отмечен в августе 2024 года. Причины роста не уточняются.

В 2025 году 89% всех зафиксированных дипфейков касались политики, деятельности силовых структур и вопросов государственной безопасности. Чаще всего подделки создавались с участием образов российских губернаторов. Наибольшее распространение получил дипфейковый ролик с участием губернатора Кемеровской области Ильи Середюка, в котором он якобы заявил о намерении оказывать помощь Луганской народной республике вместо Горловки. Видео набрало около 240 тыс. просмотров.

Более 200 тыс. просмотров получил ещё один ролик — с фальшивым заявлением бывшего украинского депутата Олега Царёва, якобы выступившего против передачи США «стратегических ресурсов России». В целом темы, связанные со спецоперацией и военными событиями, стали ключевыми для создателей дипфейков.

По мнению социолога и политтехнолога Петра Милосердова, популярности дипфейков способствует тренд на «новую искренность», который побуждает политиков вести себя нестандартно. В результате, как он отмечает, их поведение становится «абсурднее и смешнее самых смелых предположений». Пока такая мода сохраняется, политические дипфейки будут продолжать набирать популярность.

При этом, согласно опросу АНО «Диалог Регионы», проведённому в конце февраля 2025 года, уровень осведомлённости россиян о дипфейках остаётся невысоким: он не превышает 50%. Из тех, кто считает себя осведомлённым, только 73% смогли правильно распознать дипфейк, что говорит о ещё более низком фактическом уровне распознавания.

Более половины респондентов считают распространение дипфейков серьёзной угрозой — особенно для «доверчивых и малообразованных граждан, не обладающих навыками критического мышления». В связи с этим 54% опрошенных поддерживают введение государственного регулирования подобных материалов.

В целом, дипфейки становятся всё более заметным инструментом для манипулирования общественным мнением, отмечают эксперты. Однако по-прежнему более широко распространены мошеннические сценарии их применения — в первую очередь с использованием сгенерированных нейросетями аудио- и видеоматериалов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru