Правительство взялось за борьбу с видеофейками

Правительство взялось за борьбу с видеофейками

Правительство взялось за борьбу с видеофейками

К 2030 году в России появится пять систем для распознавания видеофейков в СМИ и социальных сетях. К 2025 году такие системы должны выявлять не менее 70% фейков. На это власти планируют выделить гранты.

Планы правительства профинансировать разработку пяти программ по распознаванию сгенерированного контента (deep fakes) значатся в “дорожной карте” развития “Национального общесистемного ПО”, принятой в декабре.

На проекты планируется выделить гранты, их развитием займется Фонд содействия инновациям, пишет “Ъ”.

Из документа следует, что к 2025 году необходимо представить решение, которое будет способно распознать не менее 70% поддельного контента.

Пользователями технологии, по мнению Минцифры, могут стать новостные, медиа и PR-агентства, которые нуждаются в проверке достоверности информации. Полезна она будет и пользователям, сомневающимся в подлинности аудио- и визуального контента.

Конкретные проекты в рамках дорожной карты их реализации и объемы финансирования будут определены позже, добавили в министерстве.

На рынке давно есть проблема выявления “дипфейков”, говорят в RecFaces (разрабатывает программы биометрической идентификации на основе искусственного интеллекта). Но там не считают инициативу реализуемой, поскольку формат поддержки проектов в “дорожной карте” предполагает наличие “якорного” заказчика, а в данном случае его пока нет.

В RecFaces также отметили, что существует профессиональный и любительский сгенерированный контент:

“Если для любительского контента точности распознавания в 70% может хватить, то для профессионального, с актерами и видеомонтажерами, этого недостаточно, поскольку нужно анализировать дополнительные данные”.

По оценке RecFaces, разработка ПО, которое сможет различать профессиональный сгенерированный контент, может обойтись в миллиарды рублей.

Прежде всего точность в 70% означает, что примерно в каждом третьем случае нейросеть будет ошибаться, подчеркивает исполнительный директор по стратегии и инновационному развитию блока кибербезопасности МТС Евгений Черешнев.

“Глобально это не поможет бороться с фейками. Кроме того, было бы правильнее не создавать технологию с нуля. В условиях современной геополитической обстановки у нас нет трех лет на решение задачи”, — говорит эксперт.

Добавим, тема борьбы с “дипфейками” уже не раз поднималась в этом году. Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи, "ВКонтакте" представила собственную функцию “Дипфейк”, а в аналитическом отчёте “Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности” от Сбера технологии Deepfake поставлены в первый ряд опасностей в перспективе ближайших пяти лет.

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru