VALL-E от Microsoft имитирует любой голос по трем секундам аудиопримера

VALL-E от Microsoft имитирует любой голос по трем секундам аудиопримера

VALL-E от Microsoft имитирует любой голос по трем секундам аудиопримера

Microsoft презентовала ИИ-модель, способную преобразовать текст в голос, который ей дали послушать всего 3 секунды. Получается очень похоже на оригинал, к тому же VALL-E (именно так назвали программу) умеет копировать интонации и добавлять естественные шумы. В “широкий прокат” VALL-E не пойдет, пока не придумают антипрограмму, способную распознавать робота.

Исследователи компании анонсировали программу VALL-E, которая синтезирует человеческий голос близко к оригиналу. Название сервиса созвучно известному американскому мультфильму про робота ВАЛЛ-И. Он очищал от мусора заброшенную людьми Землю, потом отправился в космос, вернулся и сумел спасти планету.

Для анализа искусственному интеллекту достаточно всего трехсекундного аудиопримера.

Создатели VALL-E говорят, что придумали программу в помощь приложениям, преобразующим текст в речь, когда нужно отредактировать какой-то отрывок в хорошем качестве. В этом случае программа может сымитировать то, что спикер на самом деле не говорил.

В Microsoft VALL-E называют моделью языка нейронного кода. Она построена на технологии EnCodec, которую корпорация Meta (признана экстремистской и запрещена на территории России) анонсировала в минувшем октябре.

В отличие от других методов преобразования текста в речь, которые обычно используют сигналы, VALL-E генерирует дискретные коды аудиокодеков из текстовых и акустических подсказок. Программа анализирует, как “звучит” человек, разбивает эту информацию на отдельные компоненты (“токены”) и учится на этих данных.

“Чтобы синтезировать речь, VALL-E генерирует соответствующие акустические маркеры, взятые из трехсекундного аудиопримера, а также использует фонетические подсказки, которые мог бы использовать человек, если бы отрывок длился дольше, — говорится в анонсе Microsoft. — Сгенерированные акустические маркеры используются для синтеза окончательной формы сигнала с помощью соответствующего декодера нейронного кодека”.

Microsoft уже натренировала VALL-E на тысячах аудиокниг на английском языке. На странице сервиса можно прослушать трехсекундный образец, оригинал и речь от VALL-E.

Некоторые примеры всё ещё напоминают роботизированный голос, но есть и очень похожие на заданную человеческую речь.

Кроме того, VALL-E способна воспроизводить акустическое окружение. Например, синтезировать речь, как будто она звучит из телефонной трубки.

В Microsoft заявили, что понимают риски VALL-E и не будут делиться кодом с другими, пока не придумают детектор, способный отличать сублимированную речь от настоящей.

“Так как VALL-E может синтезировать речь, сохраняющую идентичность спикера, программа может нести потенциальные риски неправильного использования модели”, — признают создатели. Речь идет о подмене голосовой идентификации или выдаче себя за другого человека.

Риски снизит модель, позволяющая найти отличия и определить, был ли аудиоклип синтезирован VALL-E.

Американские ученые в сентябре предложили выявлять голосовые дипфейки с помощью флюидодинамики. В университете Флориды изучили достижения артикуляционной фонетики и разработали новую технику распознавания дипфейк-аудио — по отсутствию ограничений, влияющих на работу голосового аппарата человека. Созданный детектор способен определить подмену с точностью 92,4%.

Добавим, в ноябре Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи, а аналитики Сбера внесли Deepfake в одну из самых опасных технологий, способных угрожать кибербезопасности в перспективе ближайших пяти лет.

Из-за сбоев Антиплагиата студентов не допускают к сдаче работ

Из-за ложноположительных срабатываний системы «Антиплагиат» студентов массово не допускают к сдаче курсовых и дипломных работ. Тексты приходится переписывать по нескольку раз, причём проблемы возникают даже с работами, написанными самостоятельно.

О массовых случаях недопуска студентов сообщает телеграм-канал Baza. По его данным, с такими ситуациями сталкиваются студенты вузов Москвы, Санкт-Петербурга и регионов.

Признаки генерации находят даже в текстах, полностью написанных вручную. Некоторым студентам приходилось переписывать работы до 13 раз, чтобы пройти проверку.

«"Антиплагиат" уже совсем сошёл с ума. Мы проводили эксперименты, в рамках которых моя бывшая одногруппница полностью копировала курсовую с текста ИИ и получала больше 70 баллов. Я же делала всё сама, а в итоге мне поставили 0. На зачёте заставили писать работу заново. Естественно, я всё переписала и защитилась. Оказалось, чтобы обойти "Антиплагиат", нужно писать не свои мысли, а просто использовать те фразы и слова, в которых нельзя было бы распознать ИИ», — поделилась своим опытом в эфире радиостанции «Коммерсантъ FM» студентка РАНХиГС Василиса.

По оценкам источников Hi-Tech Mail, проблема связана с тем, что в 2026 году многие сервисы проверки оригинальности текстов, включая публичные и внутривузовские, получили новые инструменты для выявления материалов, сгенерированных нейросетями. Однако алгоритмы, судя по всему, настроили слишком агрессивно.

«Из-за высокой обеспокоенности проблемой нововведения становятся гораздо более жёсткими. Раньше такого нацеленного блока проверки не было. В основном плагиат находили в заимствованиях или неграмотно оформленном цитировании. Работа усложнилась и у студентов, и у преподавателей. Менять систему вряд ли будут, жаловаться на неё бесполезно. Поэтому тут могут быть вопросы к установленным вузом процентам», — прокомментировала ситуацию «Коммерсантъ FM» профессор Института развития образования Высшей школы экономики Ирина Абанкина.

Дополнительная сложность в том, что академический стиль сам по себе близок к тому, как пишут нейросети. Одна из студенток, столкнувшаяся с ложноположительным срабатыванием, переписала текст в более разговорной манере — и после этого работа прошла проверку. Однако, по её словам, качество текста и его ценность для будущих работодателей от этого снизились.

«Сегодня хорошо написанная работа часто воспринимается так, будто её писал искусственный интеллект. Но это не так. У нас на самом деле есть огромное количество талантливых студентов, которых нужно оправдывать и защищать от обвинений в использовании ИИ. У них должен быть инструмент, чтобы преподаватели и заинтересованные лица знали, что работа написана самостоятельно», — признаёт проблему исполнительный директор компании «Антиплагиат» Евгений Лукьянчиков в комментарии для Hi-Tech Mail.

По информации Baza, студенты массово обращаются в Минобрнауки с просьбой пересмотреть подходы к проверке работ, а также отменить обязательные платные подписки на внутривузовские антиплагиат-сервисы. Многие преподаватели, в свою очередь, предлагают переходить к другим формам промежуточной аттестации, которые позволят объективнее оценивать знания и практические навыки.

RSS: Новости на портале Anti-Malware.ru