Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование искусственного интеллекта (ИИ) для совершения краж, вымогательства, мошенничества или вмешательства в работу ИТ-систем будет наказываться штрафом до 2 млн рублей или лишением свободы на срок до 15 лет. Такая мера предусмотрена во втором пакете антимошеннических инициатив.

Ранее подготовить соответствующие предложения рекомендовала Правительственная комиссия по итогам заседания в марте 2025 года. В апреле группа депутатов Госдумы внесла законопроект, в котором использование ИИ рассматривается как отягчающее обстоятельство.

Инициатива была выдвинута Минцифры и представлена на совещании у первого вице-премьера, руководителя Аппарата правительства Дмитрия Григоренко. Документ по итогам совещания оказался в распоряжении «Ведомостей». Источники издания в правительстве подтвердили его подлинность.

Поправки вносятся в статьи Уголовного кодекса РФ: 158 (кража), 159 (мошенничество), 163 (вымогательство), 272 (неправомерное воздействие на информационные системы и сети), а также 274 (нарушение правил эксплуатации средств хранения, обработки и передачи информации).

В документе также приводится определение ИИ: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Использование ИИ при совершении преступлений будет приравнено к таким отягчающим обстоятельствам, как действия в составе организованной группы, причинение тяжкого вреда здоровью, нанесение значительного ущерба или попытка завладения особо крупным имуществом.

Какие конкретно технологии ИИ попадут под действие новых норм, в Минцифры пока не уточнили. Там также напомнили, что меры второго антимошеннического пакета проходят межведомственное согласование и могут быть существенно доработаны.

По мнению опрошенных изданием экспертов, злоупотребление ИИ действительно становится всё более заметной угрозой. Такие технологии, как дипфейк, имитация голоса и подмена биометрических данных, позволяют создавать более правдоподобные обманы, что затрудняет расследование преступлений и увеличивает возможный ущерб.

В то же время определение ИИ, предложенное в поправках, эксперты считают некорректным: оно охватывает практически любые инструменты машинного обучения, что создаёт риск чрезмерного расширения уголовного преследования.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер готов делиться технологиями автоматического выявления дипфейков

Заместитель Председателя Правления Сбербанка Станислав Кузнецов заявил, что Сбер готов предоставлять свои технологии автоматического выявления дипфейков другим участникам рынка. Об этом он рассказал на форуме «Диалог о фейках 3.0» во время панельной дискуссии «Глобальный диалог: обеспечение цифрового суверенитета в условиях многополярности».

По словам Кузнецова, мир столкнулся с взрывным ростом дипфейков, а технологии их создания стали доступны буквально каждому — сгенерировать видео или аудио можно за несколько секунд и без затрат.

При этом дипфейки всё чаще применяются в мошеннических схемах, включая телефонное мошенничество и кражу денег.

«Если ещё в 2024 году преступники использовали базы данных, то теперь они запускают ИИ-агентов, которые сами находят нужную информацию. В основе таких преступлений — кибермистификация, когда ложь маскируется под правду с помощью технологий», — отметил Кузнецов.

Он подчеркнул, что для эффективной борьбы с дипфейками необходимо решить три ключевые задачи:

  1. Законодательно урегулировать их использование, в том числе признать применение дипфейков отягчающим обстоятельством при совершении преступлений.
  2. Развивать технологии быстрого выявления фейков и не допускать их распространения.
  3. Интегрировать системы распознавания дипфейков в массовые сервисы — смартфоны, ТВ, соцсети, мессенджеры и операторы связи.

Во время дискуссии Кузнецов продемонстрировал, как с помощью современных инструментов можно в реальном времени “надеть” лицо другого человека и заставить его говорить нужные слова. Он подчеркнул, что подобные возможности представляют серьёзную угрозу — от кражи личности до дискредитации публичных фигур.

Россия, по его словам, уже входит в число мировых лидеров по разработке технологий противодействия дипфейкам. В Сбере созданы решения, способные автоматически определять фальсификации в видео и аудио.

«Мы запатентовали собственное решение под рабочим названием Алетейя — в честь богини истины. Сервис позволяет определять дипфейки в любых системах: от телевидения до мессенджеров. И мы готовы делиться этими технологиями с партнёрами», — сказал Кузнецов.

Он добавил, что масштабное внедрение подобных систем может стать переломным моментом в борьбе с распространением дипфейков и повысить доверие к цифровому контенту.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru