Мошенники под видом соцопросов собирают данные для дипфейков

Мошенники под видом соцопросов собирают данные для дипфейков

Мошенники под видом соцопросов собирают данные для дипфейков

Одной из целей массовых телефонных опросов от имени различных исследовательских организаций и центров социологии становится сбор голосовых образцов для создания дипфейков.

Об этом РИА Новости рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.

По её словам, чтобы создать качественную голосовую подделку, злоумышленникам требуется запись продолжительностью не менее 20 секунд, при этом голос должен звучать ровно, без интонаций и посторонних шумов. Поэтому их цель — удержать собеседника на линии как можно дольше. Тематика социологических опросов служит удобным прикрытием для такой активности.

Для придания естественности и обхода защитных механизмов мошенники часто добавляют в запись дополнительные звуковые эффекты — например, имитацию плохой связи или фоновый шум. Как подчеркнула Татьяна Дешкина, эти особенности приходится учитывать при разработке новых версий систем для распознавания дипфейков.

Наибольшую опасность представляют так называемые комбинированные дипфейки — когда синтезированный голос накладывается на поддельное изображение или видео. Такие фальсификации используются для создания фейковых профилей в социальных сетях и мессенджерах, через которые отправляются сообщения якобы от имени реальных людей. Распознать такую подделку крайне сложно. Однако, по словам эксперта, в силу сложности реализации подобные атаки пока не получили массового распространения.

«Финансовые организации и государственные сервисы могут защитить пользователей с помощью многофакторной аутентификации и систем обнаружения дипфейков. В ближайшем будущем мобильные устройства, соцсети и мессенджеры, скорее всего, тоже получат встроенные технологии для распознавания контента, созданного с помощью нейросетей», — подытожила Татьяна Дешкина.

Во второй пакет антимошеннических инициатив, который планируется внести в Госдуму осенью, с большой вероятностью включат поправки в Уголовный кодекс. Они предполагают признание использования технологий искусственного интеллекта, включая дипфейки, отягчающим обстоятельством при совершении преступлений. Такая мера предлагается на фоне стремительного роста преступлений с применением ИИ, особенно заметного в 2025 году.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники используют ИИ для подделки фото ДТП с целью получения страховки

Киберполиция Санкт-Петербурга и Ленобласти со ссылкой на данные Росгосстраха предупреждает о появлении в рунете мошеннических сервисов по ИИ-генерации фото разбитых машин для получения выплат по ОСАГО и КАСКО.

Российские страховщики предлагают автомобилистам самостоятельно фиксировать ущерб от ДТП и подавать такие данные через интернет. Следящие за повесткой дня злоумышленники не могли упустить лишний шанс для обогащения, хотя их расценки пока либеральны.

Киберкопы северной столицы опубликовали рекомендации по добросовестному сбору доказательств страхового случая:

  • снимать ДТП с разных позиций и при хорошем освещении;
  • фотографировать не только повреждения, но также окружение (дорожные знаки, позиции автомашин);
  • лучше сделать видео, его сложнее сфальсифицировать;
  • в отснятых материалах должны присутствовать время, место, ФИО свидетелей ДТП и номера авто, засветившихся на месте происшествия;
  • оригиналы фото- и видеосъемки следует сохранить, а копии пересылать лишь через сервис страховой компании, левые предложения в соцсетях для этого не годятся.

Страховым компаниям как потенциальным жертвам подлога советуют тщательно проверять метаданные фото, запрашивать съемку с разных ракурсов, использовать средства детектирования фейков и целостности присланных файлов, а также обучать клиентов правилам фиксации ДТП и подачи заявлений.

При появлении подозрений на обман следует запустить проверку с привлечением правоохранительных органов. Что касается мошеннических фейков, российские ученые уже более двух лет ратуют за маркировку контента, создаваемого с помощью ИИ.

Ограничить использование ИИ-технологий также призывают российские парламентарии — в связи с рисками, которые усилиями экспертов осознали не только в России, но и за рубежом. Тем не менее, международному сообществу пока не удалось добиться консенсуса по вопросам урегулирования ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru