Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

Уголовное наказание за дипфейки хотят ввести в России

В России предложили ввести уголовную ответственность за дипфейки голосов или изображений людей. Злоумышленники всё чаще стали использовать контент ИИ в преступных целях.

На этой неделе Ярослав Нилов, глава комитета по труду, социальной политике и делам ветеранов, собирается внести законопроект в Госдуму, который будет включён в статьи о клевете, краже, мошенничестве и вымогательстве.

Преступникам будет грозить штраф до полутора миллиона рублей или лишение свободы до 7 лет. Сейчас в стране не предусмотрено наказание за использование дипфейков.

Компьютерные технологии стремительно развиваются и позволяют людям с помощью ИИ создавать контент, который практически неотличим от реального. Мошенники активно этим злоупотребляют и остаются безнаказанными. Законопроект поможет ввести ответственность за использование этой технологии в противоправных действиях и фальсификацию изображений, голоса и биометрических данных.

Некоторые специалисты утверждают, что не видят реальной опасности дипфейков, так как созданы технологии, которые проверяют их подлинность.

Зампред комитета по информационной политике Олег Матвейчев отметил, что терминология ещё не разработана. Само понятие «дипфейк» не внесено в законодательство и не носит юридический характер. Поэтому есть сомнения, что данный документ поддержат в Госдуме.

Ярослав Шицле, руководитель направления «Разрешение IT&Ip споров» юридической фирмы «Рустам Курмаев и партнеры», рассказал «Известиям» об актуальности законопроекта. Он поможет правоохранительным органам работать активнее и привлекать к ответственности большее количество людей.

Руководитель исследовательской группы Positive Technologies Ирина Зиновкина рассказала, что, по их данным, в первом квартале этого года в 85% атак на частных лиц злоумышленники прибегали к социальной инженерии, где активно используется ИИ. Мошенники могут манипулировать жертвами при помощи дипфейков. Законопроект, возможно, поможет усмирить преступников.

57% компаний готовы доверить ИБ искусственному интеллекту, опрос на AM Live

Почти две трети компаний готовы доверить свои системы информационной безопасности искусственному интеллекту, но при одном условии: за ним должен присматривать человек. Такие результаты показал опрос, проведённый среди зрителей и участников эфира AM Live «Машинное обучение и ИИ в кибербезопасности».

Тема встречи — растущая роль ИИ в ИБ и его двойственная природа. С одной стороны, технологии помогают автоматизировать анализ инцидентов, выявлять фишинг и обрабатывать огромные массивы данных.

С другой — злоумышленники тоже активно осваивают ИИ. По данным опроса, почти 40% компаний уже сталкивались с атаками, усиленными ИИ-инструментами.

Несмотря на это, отношение к технологии остаётся в целом позитивным. 57% респондентов заявили, что готовы внедрять ИИ в свои ИБ-системы при условии человеческого контроля. Ещё около трети готовы передать алгоритмам низкоуровневые задачи полностью или использовать их на более высоком уровне, но с обязательной валидацией решений.

Категорически против использования ИИ в информационной безопасности выступили лишь 7% участников опроса. При этом 25% не применяют его для автоматизации, но используют как вспомогательный инструмент — например, для анализа или консультаций.

Как отметил руководитель группы исследования технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов, многое зависит от масштаба задач. По его словам, компания в среднем отслеживает до 500 тысяч инцидентов в день, и вручную обработать такой объём невозможно. Здесь автоматизация, в том числе с применением ИИ, становится необходимостью. Однако рискованные сценарии пока рано полностью отдавать на откуп моделям — их разумнее использовать как советников.

Ведущий эксперт по безопасности разработки и ИИ компании К2 Кибербезопасность Александр Лысенко добавил, что доверие к ИИ заметно выросло буквально за последние месяцы. По его ощущениям, сегодня рынок готов делегировать алгоритмам некритичные процессы, а более серьёзные — при участии человека. Ещё полгода назад картина была бы менее оптимистичной.

Впрочем, не все разделяют такой энтузиазм. Руководитель продуктового направления «ИнфоТеКС» Светлана Старовойт считает, что сейчас рынок может находиться на пике доверия к ИИ. По её мнению, по мере накопления неудачных кейсов и ошибочных бизнес-решений на основе рекомендаций моделей возможен откат и более трезвая оценка возможностей технологии.

Участники эфира сошлись в одном: говорить о будущем ИИ в кибербезопасности пока рано. Технология развивается слишком быстро, и сложно предсказать, как именно она будет использоваться через пять или десять лет. Но уже сейчас очевидно, что искусственный интеллект становится заметным участником рынка ИБ и доверие к нему постепенно растёт.

RSS: Новости на портале Anti-Malware.ru