Российское правительство сочло криминализацию дипфейков преждевременной

Российское правительство сочло криминализацию дипфейков преждевременной

Российское правительство сочло криминализацию дипфейков преждевременной

В Госдуму РФ внесен законопроект, предусматривающий уголовную ответственность за использование дипфейков в противоправных целях. Кабмин счел, что документ требует доработки: нормы для технологий подмены личности в законах пока не прописаны.

Депутат от ЛДПР Ярослав Нилов и сенатор Алексей Пушков предложили ввести в ряд статей УК еще один квалифицирующий признак — злонамеренное использование изображения или голоса, в том числе сфальсифицированного или искусственно созданного (читай: дипфейка), и/или биометрических данных граждан.

Наказывать за подобные преступления, по мнению авторов проекта, следует штрафами (до 1,5 млн руб.) и лишением свободы (на срок до двух лет). Соответствующие поправки предлагается внести в статьи о клевете, краже, мошенничестве, вымогательстве, причинении ущерба через обман или злоупотребление доверием.

«Введение предлагаемого регулирования в уголовное законодательство не представляется возможным из-за отсутствия корреспондирующих норм материального законодательства, что влечет существенные риски формирования некорректной правоприменительной практики», — цитирует ТАСС официальный отзыв правительства.

Кабмин также отметил, что в пояснительной записке к проекту ФЗ не указаны данные (свидетельства), на основании которых можно было бы сделать вывод об общественной опасности инкриминируемых деяний.

Атаки с применением дипфейк-технологий— угроза вполне реальная, и специалисты, в том числе в России, активно работают над созданием инструментов для распознавания таких фальшивок. К сожалению, в российском законодательстве это понятие до сих пор отсутствует, и все попытки криминализировать использование дипфейков с преступными намерениями пока терпят неудачу.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ Яндекса отражает до 150 DDoS-атак в месяц — 99,9% автоматически

Искусственный интеллект Яндекса каждый месяц справляется в среднем со 150 DDoS-атаками на сервисы компании. С начала года таких атак было уже около 800, рассказал ТАСС директор по информационной безопасности компании Александр Каледа.

По его словам, нагрузка сильно колеблется: в пиковые периоды количество атак поднимается до 150 в месяц, в спокойные — опускается до 50–60.

Но при этом подавляющее большинство атак — свыше 99,9% — нейтрализуются полностью автоматически, без участия человека.

Каледа поясняет, что речь идёт в основном о сложных атаках, направленных на нарушение работы сервисов и приложений. ИИ помогает выявлять нетривиальные признаки угроз, которые невозможно описать простыми правилами.

«В отличие от традиционного подхода, где правила быстро устаревают, ИИ находит нестандартные сочетания технических и поведенческих признаков. Такой подход сложнее обойти злоумышленникам», — отметил он.

После отражения атаки проходят разбор и анализ. Сейчас около 75% таких разборов выполняются автоматически: система классифицирует инциденты и пополняет обучающую выборку, что помогает быстрее реагировать на новые типы угроз.

Атаки Яндекс отражает с помощью собственного сервиса «Антиробот». Он анализирует весь входящий трафик в режиме реального времени и определяет, какие запросы поступают от реальных пользователей, а какие — от автоматизированных систем, участвующих в атаке.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru