Российское правительство сочло криминализацию дипфейков преждевременной

Российское правительство сочло криминализацию дипфейков преждевременной

Российское правительство сочло криминализацию дипфейков преждевременной

В Госдуму РФ внесен законопроект, предусматривающий уголовную ответственность за использование дипфейков в противоправных целях. Кабмин счел, что документ требует доработки: нормы для технологий подмены личности в законах пока не прописаны.

Депутат от ЛДПР Ярослав Нилов и сенатор Алексей Пушков предложили ввести в ряд статей УК еще один квалифицирующий признак — злонамеренное использование изображения или голоса, в том числе сфальсифицированного или искусственно созданного (читай: дипфейка), и/или биометрических данных граждан.

Наказывать за подобные преступления, по мнению авторов проекта, следует штрафами (до 1,5 млн руб.) и лишением свободы (на срок до двух лет). Соответствующие поправки предлагается внести в статьи о клевете, краже, мошенничестве, вымогательстве, причинении ущерба через обман или злоупотребление доверием.

«Введение предлагаемого регулирования в уголовное законодательство не представляется возможным из-за отсутствия корреспондирующих норм материального законодательства, что влечет существенные риски формирования некорректной правоприменительной практики», — цитирует ТАСС официальный отзыв правительства.

Кабмин также отметил, что в пояснительной записке к проекту ФЗ не указаны данные (свидетельства), на основании которых можно было бы сделать вывод об общественной опасности инкриминируемых деяний.

Атаки с применением дипфейк-технологий— угроза вполне реальная, и специалисты, в том числе в России, активно работают над созданием инструментов для распознавания таких фальшивок. К сожалению, в российском законодательстве это понятие до сих пор отсутствует, и все попытки криминализировать использование дипфейков с преступными намерениями пока терпят неудачу.

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru