Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

В России предложили ввести уголовную ответственность за дипфейки голосов или изображений людей. Злоумышленники всё чаще стали использовать контент ИИ в преступных целях.

На этой неделе Ярослав Нилов, глава комитета по труду, социальной политике и делам ветеранов, собирается внести законопроект в Госдуму, который будет включён в статьи о клевете, краже, мошенничестве и вымогательстве.

Преступникам будет грозить штраф до полутора миллиона рублей или лишение свободы до 7 лет. Сейчас в стране не предусмотрено наказание за использование дипфейков.

Компьютерные технологии стремительно развиваются и позволяют людям с помощью ИИ создавать контент, который практически неотличим от реального. Мошенники активно этим злоупотребляют и остаются безнаказанными. Законопроект поможет ввести ответственность за использование этой технологии в противоправных действиях и фальсификацию изображений, голоса и биометрических данных.

Некоторые специалисты утверждают, что не видят реальной опасности дипфейков, так как созданы технологии, которые проверяют их подлинность.

Зампред комитета по информационной политике Олег Матвейчев отметил, что терминология ещё не разработана. Само понятие «дипфейк» не внесено в законодательство и не носит юридический характер. Поэтому есть сомнения, что данный документ поддержат в Госдуме.

Ярослав Шицле, руководитель направления «Разрешение IT&Ip споров» юридической фирмы «Рустам Курмаев и партнеры», рассказал «Известиям» об актуальности законопроекта. Он поможет правоохранительным органам работать активнее и привлекать к ответственности большее количество людей.

Руководитель исследовательской группы Positive Technologies Ирина Зиновкина рассказала, что, по их данным, в первом квартале этого года в 85% атак на частных лиц злоумышленники прибегали к социальной инженерии, где активно используется ИИ. Мошенники могут манипулировать жертвами при помощи дипфейков. Законопроект, возможно, поможет усмирить преступников.

На Википедии нашли галлюцинации в ИИ-переводах и ввели ограничения

У Википедии снова случился спор про ИИ, на этот раз из-за переводов. Редакторы ввели новые ограничения для части переводчиков, связанных с Open Knowledge Association (OKA), после того как в ряде ИИ-переводов нашли галлюцинации: подменённые источники, неподтверждённые фразы и даже абзацы, опиравшиеся на материалы, не связанные с темой статьи.

Сама OKA — это швейцарская некоммерческая организация, которая платит стипендии переводчикам и прямо пишет на своём сайте, что использует большие языковые модели, чтобы автоматизировать значительную часть работы.

В англоязычном сегменте Википедии у проекта есть отдельная страница, там сказано, что OKA финансирует переводчиков и работает с несколькими языками, включая русский, испанский, французский и немецкий.

Проблему заметили не «в теории», а на конкретных статьях. Один из редакторов, Ильяс Леблё, рассказал 404 Media, что при выборочной проверке быстро нашёл ошибки: где-то источники были перепутаны, где-то появлялись фразы без верификации, а в одном случае в статью про выборы во французский Сенат попали абзацы, вообще не подтверждавшиеся указанными материалами.

Отдельно редакторов смутило, как именно была организована работа. Публичные инструкции OKA для переводчиков на Meta-Wiki подтверждают, что организация обучает новичков и публикует свои рекомендации открыто. В обсуждении вокруг инцидента также всплывали указания использовать популярные LLM для чернового перевода и правки лидов статей; 404 Media пишет, что раньше в инструкциях фигурировал и Grok, хотя позднее акцент сместили на другие модели.

В итоге Википедия не стала запрещать ИИ-переводы целиком, но решила ужесточить подход именно к переводчикам OKA. По правилам, которые цитирует 404 Media, если такой переводчик за шесть месяцев получает четыре корректно вынесенных предупреждения за непроверяемый контент, то при следующем нарушении его могут заблокировать без дополнительных предупреждений. А материалы, добавленные таким участником, могут удалить, если за них не возьмёт ответственность другой редактор с хорошей репутацией.

У самой OKA своя версия истории. Основатель организации Джонатан Циммерманн заявил, что переводчикам платят почасово, а не за количество статей, и что фиксированной нормы публикаций у них нет. По его словам, организация делает ставку на качество, признаёт, что ошибки случаются, и уже усиливает контроль: вводит второй независимый этап проверки через другую LLM, но не как замену человеку, а как дополнительный фильтр перед ручной верификацией.

RSS: Новости на портале Anti-Malware.ru