В России растет количество политических дипфейков

В России растет количество политических дипфейков

В России растет количество политических дипфейков

Согласно данным Global Fact-Checking Network, за первые три месяца 2025 года количество дипфейков политической тематики в России превысило 65% от общего показателя за весь 2024 год. Основными героями таких видео чаще всего становятся губернаторы.

В течение 2024 года Global Fact-Checking Network, созданная в декабре ТАСС, АНО «Диалог Регионы» и АНО «Мастерская новых медиа», как сообщает «Коммерсант», зафиксировала 61 уникальный дипфейк и 2,3 тыс. его копий.

Это в 3,6 раза больше по сравнению с итогами 2023 года. Особенно заметный всплеск активности был отмечен в августе 2024 года. Причины роста не уточняются.

В 2025 году 89% всех зафиксированных дипфейков касались политики, деятельности силовых структур и вопросов государственной безопасности. Чаще всего подделки создавались с участием образов российских губернаторов. Наибольшее распространение получил дипфейковый ролик с участием губернатора Кемеровской области Ильи Середюка, в котором он якобы заявил о намерении оказывать помощь Луганской народной республике вместо Горловки. Видео набрало около 240 тыс. просмотров.

Более 200 тыс. просмотров получил ещё один ролик — с фальшивым заявлением бывшего украинского депутата Олега Царёва, якобы выступившего против передачи США «стратегических ресурсов России». В целом темы, связанные со спецоперацией и военными событиями, стали ключевыми для создателей дипфейков.

По мнению социолога и политтехнолога Петра Милосердова, популярности дипфейков способствует тренд на «новую искренность», который побуждает политиков вести себя нестандартно. В результате, как он отмечает, их поведение становится «абсурднее и смешнее самых смелых предположений». Пока такая мода сохраняется, политические дипфейки будут продолжать набирать популярность.

При этом, согласно опросу АНО «Диалог Регионы», проведённому в конце февраля 2025 года, уровень осведомлённости россиян о дипфейках остаётся невысоким: он не превышает 50%. Из тех, кто считает себя осведомлённым, только 73% смогли правильно распознать дипфейк, что говорит о ещё более низком фактическом уровне распознавания.

Более половины респондентов считают распространение дипфейков серьёзной угрозой — особенно для «доверчивых и малообразованных граждан, не обладающих навыками критического мышления». В связи с этим 54% опрошенных поддерживают введение государственного регулирования подобных материалов.

В целом, дипфейки становятся всё более заметным инструментом для манипулирования общественным мнением, отмечают эксперты. Однако по-прежнему более широко распространены мошеннические сценарии их применения — в первую очередь с использованием сгенерированных нейросетями аудио- и видеоматериалов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники используют ИИ для подделки фото ДТП с целью получения страховки

Киберполиция Санкт-Петербурга и Ленобласти со ссылкой на данные Росгосстраха предупреждает о появлении в рунете мошеннических сервисов по ИИ-генерации фото разбитых машин для получения выплат по ОСАГО и КАСКО.

Российские страховщики предлагают автомобилистам самостоятельно фиксировать ущерб от ДТП и подавать такие данные через интернет. Следящие за повесткой дня злоумышленники не могли упустить лишний шанс для обогащения, хотя их расценки пока либеральны.

Киберкопы северной столицы опубликовали рекомендации по добросовестному сбору доказательств страхового случая:

  • снимать ДТП с разных позиций и при хорошем освещении;
  • фотографировать не только повреждения, но также окружение (дорожные знаки, позиции автомашин);
  • лучше сделать видео, его сложнее сфальсифицировать;
  • в отснятых материалах должны присутствовать время, место, ФИО свидетелей ДТП и номера авто, засветившихся на месте происшествия;
  • оригиналы фото- и видеосъемки следует сохранить, а копии пересылать лишь через сервис страховой компании, левые предложения в соцсетях для этого не годятся.

Страховым компаниям как потенциальным жертвам подлога советуют тщательно проверять метаданные фото, запрашивать съемку с разных ракурсов, использовать средства детектирования фейков и целостности присланных файлов, а также обучать клиентов правилам фиксации ДТП и подачи заявлений.

При появлении подозрений на обман следует запустить проверку с привлечением правоохранительных органов. Что касается мошеннических фейков, российские ученые уже более двух лет ратуют за маркировку контента, создаваемого с помощью ИИ.

Ограничить использование ИИ-технологий также призывают российские парламентарии — в связи с рисками, которые усилиями экспертов осознали не только в России, но и за рубежом. Тем не менее, международному сообществу пока не удалось добиться консенсуса по вопросам урегулирования ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru