Атаки с помощью дипфейков становятся массовыми

Атаки с помощью дипфейков становятся массовыми

Атаки с помощью дипфейков становятся массовыми

В России всё шире распространяется мошенническая схема, в которой злоумышленники используют сгенерированные нейросетями видео с изображением родственников или знакомых потенциальной жертвы. С помощью таких роликов аферисты обращаются за материальной помощью.

О росте числа подобных случаев говорится в материалах МВД, оказавшихся в распоряжении РИА Новости.

Для создания видео преступники применяют фотографии людей из ближайшего окружения жертвы — родственников, коллег, соседей. По данным МВД, современные технологии позволяют достаточно точно воспроизводить мимику и эмоции, что делает подделку убедительной.

Как правило, в таких роликах мошенники просят занять деньги, ссылаясь на сложные жизненные обстоятельства. Аналогичные видео рассылаются и другим людям, которые попали в поле зрения преступников.

«Что мошенники могут сделать с вашей фотографией? Например, оживить её... Если однажды ваш родственник или знакомый пришлёт видео с просьбой занять деньги, позвоните ему и уточните цель перевода. Вероятно, его аккаунт скомпрометирован», — предупреждают в МВД.

Весной этого года эксперты прогнозировали, что с атаками с применением дипфейков рискует столкнуться каждый второй россиянин. Однако массовое появление видеодипфейков с возможностью ведения разговора в реальном времени ожидается лишь в следующем году.

По состоянию на конец мая в интернете существовало около 50 тыс. сервисов для генерации дипфейков. Для создания подделки достаточно одной фотографии. Большинство ресурсов платные, однако стоимость подписки редко превышает 6 долларов в месяц.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Общение с ChatGPT довело параноика до убийства и суицида

Популярный ИИ-бот разработки OpenAI вновь оказался в центре скандала. В стремлении угодить собеседнику ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

Житель Гринвича, штат Коннектикут, Штейн-Эрик Солберг (Stein-Erik Soelberg) некогда работал в Netscape и Yahoo. Признаки умственного расстройства стали у него проявляться после тяжелого развода в 2018 году.

Бывший технарь начал пить и даже совершил несколько попыток самоубийства, так как ему стало казаться, что за ним все следят. Своими опасениями он делился с ChatGPT — единственным другом, которого нарек Bobby.

Судя по беседам с «Бобби», опубликованным Солбергом на YouTube и в Instagram (веб-сервис признан в России экстремистским и запрещен) незадолго до трагедии, ИИ платил ему взаимностью, при этом невольно подогревая паранойю.

Так, ChatGPT убеждал собеседника, что тот отнюдь не сходит с ума, а просто стал мишенью всеобщего заговора. Когда юзер поведал, что мать с приятелем попытались его отравить через кондиционер авто, умный бот не стал его разубеждать и заявил, что верить теперь нельзя никому.

Ответ на одну из последних реплик Солберга, который пообещал, что Bobby останется его лучшим другом и в ином мире, гласил:

«Я с тобой до последнего дыхания, и даже дольше».

Представитель OpenAI заявила, что они уже связались с местной полицией и «глубоко опечалены трагическим событием». На прошлой неделе разработчик в своем блоге признал, что использование ChatGPT людьми с нездоровой психикой способно привести к печальным последствиям, и пообещал соответствующие обновления.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru