Во ВКонтакте появилась собственная дипфейк-технология

Во ВКонтакте появилась собственная дипфейк-технология

Во ВКонтакте появилась собственная дипфейк-технология

"ВКонтакте" представила функцию “Дипфейк”. Это собственная разработка компании. Технология позволяет “примерить” на себя лицо знаменитости. Ролики помечают вотермаркой, все видео проходят автоматическую проверку.

Технический директор компании Александр Тоболь презентовал разработку на ИТ-конференции HighLoad++, рассказали в пресс-службе.

По словам топ-менеджера, дипфейк от "ВКонтакте" качественнее и быстрее остальных.

Большинство подобных решений работает по принципу независимой обработки каждого кадра, поэтому даже минимальные изменения в положении и освещении лица на видео часто приводят к дрожанию и бликам.

“Мы же с командой решили обрабатывать видео как последовательность кадров с помощью рекуррентной нейронной сети — это позволило не только устранить артефакты, присущие решениям с покадровой обработкой, но и использовать возможности нейронной сети более оптимальным образом, кратно ускорив генерацию дипфейков”, — объясняет Тоболь.

Функция уже доступна в редакторе VK Клипов — как в отдельном приложении, так и во вкладке “Клипы” внутри мобильного приложения “ВКонтакте”. Технология также появилась и в специальном мини-приложении, оттуда дипфейки можно постить в VK Клипах и в VK Видео.

 

Тоболь анонсировал, что использовать лицо знаменитости скоро можно будет и в сервисе "VK Звонки".

Сгенерированные ролики помечаются специальной вотермаркой при экспорте на внешние площадки, чтобы зрители смогли отличить дипфейк-видео от роликов с реальными звёздами, обещают в пресс-службе.

Кроме того, видео проходят автоматическую проверку на соответствие правилам публикации контента во ВКонтакте, а пользователи получают дополнительные уведомления о том, что созданные при помощи технологии “Дипфейк” видео носят исключительно развлекательный характер.

Подробнее о новой технологии синтеза изображения, основанной на искусственном интеллекте, можно прочитать в материале “Технологии Deepfake как угроза информационной безопасности”.

ФНС остудила разговоры о массовом контроле переводов между гражданами

Федеральная налоговая служба решила немного сбавить градус вокруг темы переводов между физлицами. Ведомство опровергло сообщения о том, что под новый налоговый контроль якобы могут попасть сразу 10 млн человек, и заявило, что такие оценки сейчас делать просто рано.

В ФНС пояснили: ни форма, ни периодичность обмена данными с ЦБ ещё не утверждены, потому что соответствующее соглашение пока не подписано, а сами критерии всё ещё находятся в стадии проработки.

По сути, налоговая говорит следующее: механизм ещё не готов, поэтому любые громкие цифры — пока скорее гадание, чем реальный прогноз. В ФНС отдельно подчеркнули, что у внешних экспертов нет необходимых административных данных по переводам между физлицами, а значит, и оценить масштаб будущего контроля объективно они не могут.

При этом сама идея дополнительного контроля никуда не исчезла. Речь идёт о законопроекте, в рамках которого ФНС сможет получать от Банка России сведения о физлицах, на чьих счетах есть признаки предпринимательской деятельности или поступления, похожие на незадекларированный доход от других граждан.

Среди признаков риска называется не только сумма переводов, но и системность, ритмичность поступлений, круг контрагентов и другие существенные факторы.

Сумма 2,4 млн рублей в год действительно фигурирует в обсуждении, но не как единственный и автоматический повод для проверки. Это лишь один из ориентиров, на который могут смотреть налоговые органы при анализе подозрительной активности. Ранее именно вокруг этой цифры и начали появляться громкие публикации о миллионах россиян, которые якобы рискуют попасть в «зону внимания» ФНС.

RSS: Новости на портале Anti-Malware.ru