Мошенники подделывают голоса следователей с помощью ИИ

Мошенники подделывают голоса следователей с помощью ИИ

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

Подсмотрел в чужой телефон? Можешь нарваться на уголовную статью

Излишнее любопытство может быть расценено как вмешательство в частную жизнь, если речь идёт о действиях, связанных со сбором и использованием защищённой информации. В таком случае просмотр содержимого чужого телефона может вступать в противоречие с действующим законодательством.

О том, что просмотр чужого телефона при определённых обстоятельствах может повлечь уголовную ответственность, рассказал ТАСС кандидат юридических наук, доцент кафедры гражданско-правовых дисциплин РЭУ им. Г. В. Плеханова Андрей Моисеев.

Речь идёт о статье 137 УК РФ — «Нарушение неприкосновенности частной жизни». Она предусматривает штраф до 300 тыс. рублей, обязательные или исправительные работы, а также лишение свободы на срок до пяти лет.

«По букве закона, в формулировке статьи подразумевается не только распространение, но и сбор информации. При этом использование каких-либо средств фиксации информации является одним из способов такого сбора информации. На мой взгляд, говорить об уголовном деле можно в тех случаях, если информация, полученная путём подглядывания, носит характер частной жизни. При этом водораздел проходит в тех случаях, когда сам обладатель этой информации относится к этой информации как к частной, принимает меры по её охране», — рассказал юрист.

Однако для привлечения к ответственности необходимо доказать умысел. Если человек просто случайно задержал взгляд на экране чужого телефона, доказать намеренное вмешательство будет сложно, отметил Андрей Моисеев.

Как показывают исследования, для сбора данных россияне чаще используют шпионское ПО. С тех пор ситуация существенно не изменилась. Обычно речь идёт о попытках контролировать членов семьи — супругов или детей. Однако встречаются и примеры, когда технические средства применяют для сбора компромата на коллег.

RSS: Новости на портале Anti-Malware.ru