Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Совет при президенте по кодификации и совершенствованию гражданского законодательства не поддержал законопроект об охране голоса. По их мнению, отечественное законодательство уже защищает голос как одно из материальных благ.

С отзывом на законопроект о защите голоса, который внесла в Госдуму 16 сентября группа депутатов обеих палат, ознакомилось издание «Ведомости».

Законопроект предлагает дополнить Гражданский кодекс новой статьей, которая бы регламентировала использование голоса граждан, включая воссозданный с помощью технических средств (дипфейк).

Использование голоса, в том числе дипфейков, авторы законопроекта допускают лишь с согласия обладателя или его прямых наследников в случае смерти или недееспособности. Предполагаются и исключения, например, в том случае, если запись используется в публичных интересах, запись была сделана в месте, открытом для свободного посещения, или в рамках оплачиваемой работы.

Необходимость появления нового нормативного акта его авторы объясняют широким распространением голосовых дипфейков, в том числе в противоправных целях. При этом право на охрану голоса, по мнению разработчиков законопроекта, никак не закреплено в законодательстве.

Эксперты Совета при президенте по кодификации и совершенствованию гражданского законодательства, наоборот, считают, что Конституционный суд оставляет перечень нематериальных благ открытым, и он включает и голос.

Плюс ко всему Гражданский кодекс в полной мере защищает актеров или певцов, а законодательство о защите персональных данных – голос как часть биометрических данных. Эксперты обратили внимание на то, что авторы не привели примеров из судебной практики, связанных с неправомерным использованием голоса.

Кроме того, авторы законопроекта взяли за образец действующую 152.1 Гражданского кодекса, которая относится к защите изображений гражданина. Однако такую аналогию, по мнению экспертов, проводить нельзя. К тому же при разбирательствах по данной статье из-под ее действия выводятся карикатуры и шаржи.

По мнению опрошенных «Ведомостями» юристов, проблема еще шире. Партнер фирмы «Рустам Курмаев и партнеры» Дмитрий Горбунов:

«Текущая версия законопроекта и заложенные в нем принципы выглядят противоречиво с точки зрения сложившейся не только в России, но и во всем мире правоприменительной практики и законодательства».

Объектом авторского права считается не голос как таковой, а фонограмма или иные аудиоматериалы.

На Википедии нашли галлюцинации в ИИ-переводах и ввели ограничения

У Википедии снова случился спор про ИИ, на этот раз из-за переводов. Редакторы ввели новые ограничения для части переводчиков, связанных с Open Knowledge Association (OKA), после того как в ряде ИИ-переводов нашли галлюцинации: подменённые источники, неподтверждённые фразы и даже абзацы, опиравшиеся на материалы, не связанные с темой статьи.

Сама OKA — это швейцарская некоммерческая организация, которая платит стипендии переводчикам и прямо пишет на своём сайте, что использует большие языковые модели, чтобы автоматизировать значительную часть работы.

В англоязычном сегменте Википедии у проекта есть отдельная страница, там сказано, что OKA финансирует переводчиков и работает с несколькими языками, включая русский, испанский, французский и немецкий.

Проблему заметили не «в теории», а на конкретных статьях. Один из редакторов, Ильяс Леблё, рассказал 404 Media, что при выборочной проверке быстро нашёл ошибки: где-то источники были перепутаны, где-то появлялись фразы без верификации, а в одном случае в статью про выборы во французский Сенат попали абзацы, вообще не подтверждавшиеся указанными материалами.

Отдельно редакторов смутило, как именно была организована работа. Публичные инструкции OKA для переводчиков на Meta-Wiki подтверждают, что организация обучает новичков и публикует свои рекомендации открыто. В обсуждении вокруг инцидента также всплывали указания использовать популярные LLM для чернового перевода и правки лидов статей; 404 Media пишет, что раньше в инструкциях фигурировал и Grok, хотя позднее акцент сместили на другие модели.

В итоге Википедия не стала запрещать ИИ-переводы целиком, но решила ужесточить подход именно к переводчикам OKA. По правилам, которые цитирует 404 Media, если такой переводчик за шесть месяцев получает четыре корректно вынесенных предупреждения за непроверяемый контент, то при следующем нарушении его могут заблокировать без дополнительных предупреждений. А материалы, добавленные таким участником, могут удалить, если за них не возьмёт ответственность другой редактор с хорошей репутацией.

У самой OKA своя версия истории. Основатель организации Джонатан Циммерманн заявил, что переводчикам платят почасово, а не за количество статей, и что фиксированной нормы публикаций у них нет. По его словам, организация делает ставку на качество, признаёт, что ошибки случаются, и уже усиливает контроль: вводит второй независимый этап проверки через другую LLM, но не как замену человеку, а как дополнительный фильтр перед ручной верификацией.

RSS: Новости на портале Anti-Malware.ru