Правительство взялось за борьбу с видеофейками

Правительство взялось за борьбу с видеофейками

Правительство взялось за борьбу с видеофейками

К 2030 году в России появится пять систем для распознавания видеофейков в СМИ и социальных сетях. К 2025 году такие системы должны выявлять не менее 70% фейков. На это власти планируют выделить гранты.

Планы правительства профинансировать разработку пяти программ по распознаванию сгенерированного контента (deep fakes) значатся в “дорожной карте” развития “Национального общесистемного ПО”, принятой в декабре.

На проекты планируется выделить гранты, их развитием займется Фонд содействия инновациям, пишет “Ъ”.

Из документа следует, что к 2025 году необходимо представить решение, которое будет способно распознать не менее 70% поддельного контента.

Пользователями технологии, по мнению Минцифры, могут стать новостные, медиа и PR-агентства, которые нуждаются в проверке достоверности информации. Полезна она будет и пользователям, сомневающимся в подлинности аудио- и визуального контента.

Конкретные проекты в рамках дорожной карты их реализации и объемы финансирования будут определены позже, добавили в министерстве.

На рынке давно есть проблема выявления “дипфейков”, говорят в RecFaces (разрабатывает программы биометрической идентификации на основе искусственного интеллекта). Но там не считают инициативу реализуемой, поскольку формат поддержки проектов в “дорожной карте” предполагает наличие “якорного” заказчика, а в данном случае его пока нет.

В RecFaces также отметили, что существует профессиональный и любительский сгенерированный контент:

“Если для любительского контента точности распознавания в 70% может хватить, то для профессионального, с актерами и видеомонтажерами, этого недостаточно, поскольку нужно анализировать дополнительные данные”.

По оценке RecFaces, разработка ПО, которое сможет различать профессиональный сгенерированный контент, может обойтись в миллиарды рублей.

Прежде всего точность в 70% означает, что примерно в каждом третьем случае нейросеть будет ошибаться, подчеркивает исполнительный директор по стратегии и инновационному развитию блока кибербезопасности МТС Евгений Черешнев.

“Глобально это не поможет бороться с фейками. Кроме того, было бы правильнее не создавать технологию с нуля. В условиях современной геополитической обстановки у нас нет трех лет на решение задачи”, — говорит эксперт.

Добавим, тема борьбы с “дипфейками” уже не раз поднималась в этом году. Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи, "ВКонтакте" представила собственную функцию “Дипфейк”, а в аналитическом отчёте “Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности” от Сбера технологии Deepfake поставлены в первый ряд опасностей в перспективе ближайших пяти лет.

Из-за сбоев Антиплагиата студентов не допускают к сдаче работ

Из-за ложноположительных срабатываний системы «Антиплагиат» студентов массово не допускают к сдаче курсовых и дипломных работ. Тексты приходится переписывать по нескольку раз, причём проблемы возникают даже с работами, написанными самостоятельно.

О массовых случаях недопуска студентов сообщает телеграм-канал Baza. По его данным, с такими ситуациями сталкиваются студенты вузов Москвы, Санкт-Петербурга и регионов.

Признаки генерации находят даже в текстах, полностью написанных вручную. Некоторым студентам приходилось переписывать работы до 13 раз, чтобы пройти проверку.

«"Антиплагиат" уже совсем сошёл с ума. Мы проводили эксперименты, в рамках которых моя бывшая одногруппница полностью копировала курсовую с текста ИИ и получала больше 70 баллов. Я же делала всё сама, а в итоге мне поставили 0. На зачёте заставили писать работу заново. Естественно, я всё переписала и защитилась. Оказалось, чтобы обойти "Антиплагиат", нужно писать не свои мысли, а просто использовать те фразы и слова, в которых нельзя было бы распознать ИИ», — поделилась своим опытом в эфире радиостанции «Коммерсантъ FM» студентка РАНХиГС Василиса.

По оценкам источников Hi-Tech Mail, проблема связана с тем, что в 2026 году многие сервисы проверки оригинальности текстов, включая публичные и внутривузовские, получили новые инструменты для выявления материалов, сгенерированных нейросетями. Однако алгоритмы, судя по всему, настроили слишком агрессивно.

«Из-за высокой обеспокоенности проблемой нововведения становятся гораздо более жёсткими. Раньше такого нацеленного блока проверки не было. В основном плагиат находили в заимствованиях или неграмотно оформленном цитировании. Работа усложнилась и у студентов, и у преподавателей. Менять систему вряд ли будут, жаловаться на неё бесполезно. Поэтому тут могут быть вопросы к установленным вузом процентам», — прокомментировала ситуацию «Коммерсантъ FM» профессор Института развития образования Высшей школы экономики Ирина Абанкина.

Дополнительная сложность в том, что академический стиль сам по себе близок к тому, как пишут нейросети. Одна из студенток, столкнувшаяся с ложноположительным срабатыванием, переписала текст в более разговорной манере — и после этого работа прошла проверку. Однако, по её словам, качество текста и его ценность для будущих работодателей от этого снизились.

«Сегодня хорошо написанная работа часто воспринимается так, будто её писал искусственный интеллект. Но это не так. У нас на самом деле есть огромное количество талантливых студентов, которых нужно оправдывать и защищать от обвинений в использовании ИИ. У них должен быть инструмент, чтобы преподаватели и заинтересованные лица знали, что работа написана самостоятельно», — признаёт проблему исполнительный директор компании «Антиплагиат» Евгений Лукьянчиков в комментарии для Hi-Tech Mail.

По информации Baza, студенты массово обращаются в Минобрнауки с просьбой пересмотреть подходы к проверке работ, а также отменить обязательные платные подписки на внутривузовские антиплагиат-сервисы. Многие преподаватели, в свою очередь, предлагают переходить к другим формам промежуточной аттестации, которые позволят объективнее оценивать знания и практические навыки.

RSS: Новости на портале Anti-Malware.ru