Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

В России предложили ввести уголовную ответственность за дипфейки голосов или изображений людей. Злоумышленники всё чаще стали использовать контент ИИ в преступных целях.

На этой неделе Ярослав Нилов, глава комитета по труду, социальной политике и делам ветеранов, собирается внести законопроект в Госдуму, который будет включён в статьи о клевете, краже, мошенничестве и вымогательстве.

Преступникам будет грозить штраф до полутора миллиона рублей или лишение свободы до 7 лет. Сейчас в стране не предусмотрено наказание за использование дипфейков.

Компьютерные технологии стремительно развиваются и позволяют людям с помощью ИИ создавать контент, который практически неотличим от реального. Мошенники активно этим злоупотребляют и остаются безнаказанными. Законопроект поможет ввести ответственность за использование этой технологии в противоправных действиях и фальсификацию изображений, голоса и биометрических данных.

Некоторые специалисты утверждают, что не видят реальной опасности дипфейков, так как созданы технологии, которые проверяют их подлинность.

Зампред комитета по информационной политике Олег Матвейчев отметил, что терминология ещё не разработана. Само понятие «дипфейк» не внесено в законодательство и не носит юридический характер. Поэтому есть сомнения, что данный документ поддержат в Госдуме.

Ярослав Шицле, руководитель направления «Разрешение IT&Ip споров» юридической фирмы «Рустам Курмаев и партнеры», рассказал «Известиям» об актуальности законопроекта. Он поможет правоохранительным органам работать активнее и привлекать к ответственности большее количество людей.

Руководитель исследовательской группы Positive Technologies Ирина Зиновкина рассказала, что, по их данным, в первом квартале этого года в 85% атак на частных лиц злоумышленники прибегали к социальной инженерии, где активно используется ИИ. Мошенники могут манипулировать жертвами при помощи дипфейков. Законопроект, возможно, поможет усмирить преступников.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru