Мошенники подделывают голоса следователей с помощью ИИ

Мошенники подделывают голоса следователей с помощью ИИ

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

Каждый десятый россиянин использует ИИ для создания рабочих паролей

Как выяснили в «Лаборатория Касперского» и hh.ru, часть россиян уже доверяет нейросетям даже такую важную задачу, как создание паролей для рабочих аккаунтов. По данным совместного опроса, каждый десятый использует ИИ для генерации паролей к корпоративным сервисам.

Ещё 6% применяют нейросети для управления паролями или их хранения. Это уже выглядит рискованнее: если пользователь вводит в ИИ-сервис лишние данные, они потенциально могут оказаться вне контроля компании.

В целом большинство пользователей пока относятся к такой практике осторожно. Но есть и те, кто готов доверять ИИ даже в вопросах с высокой ценой ошибки.

Так, 11% опрошенных заявили, что могли бы поручить нейросети создание паролей для рабочих ресурсов с конфиденциальной информацией. Столько же признались, что в некоторых случаях доверяют ИИ в генерации паролей больше, чем себе.

Эксперты напоминают: сама идея создать сложную комбинацию с помощью технологии не плоха. Проблема начинается, когда человек в запросе указывает название компании, конкретный сервис или другие детали, которые лучше не светить во внешней системе. Кроме того, предложенный нейросетью пароль не стоит использовать в исходном виде.

В «Лаборатории Касперского» советуют безопаснее подходить к таким сценариям: не передавать ИИ конфиденциальные данные, просить несколько вариантов и затем собирать собственную комбинацию.

Для компаний более надёжным вариантом остаются корпоративные менеджеры паролей, где можно централизованно управлять учётными данными и контролировать правила безопасности.

RSS: Новости на портале Anti-Malware.ru