Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Совет при президенте по кодификации и совершенствованию гражданского законодательства не поддержал законопроект об охране голоса. По их мнению, отечественное законодательство уже защищает голос как одно из материальных благ.

С отзывом на законопроект о защите голоса, который внесла в Госдуму 16 сентября группа депутатов обеих палат, ознакомилось издание «Ведомости».

Законопроект предлагает дополнить Гражданский кодекс новой статьей, которая бы регламентировала использование голоса граждан, включая воссозданный с помощью технических средств (дипфейк).

Использование голоса, в том числе дипфейков, авторы законопроекта допускают лишь с согласия обладателя или его прямых наследников в случае смерти или недееспособности. Предполагаются и исключения, например, в том случае, если запись используется в публичных интересах, запись была сделана в месте, открытом для свободного посещения, или в рамках оплачиваемой работы.

Необходимость появления нового нормативного акта его авторы объясняют широким распространением голосовых дипфейков, в том числе в противоправных целях. При этом право на охрану голоса, по мнению разработчиков законопроекта, никак не закреплено в законодательстве.

Эксперты Совета при президенте по кодификации и совершенствованию гражданского законодательства, наоборот, считают, что Конституционный суд оставляет перечень нематериальных благ открытым, и он включает и голос.

Плюс ко всему Гражданский кодекс в полной мере защищает актеров или певцов, а законодательство о защите персональных данных – голос как часть биометрических данных. Эксперты обратили внимание на то, что авторы не привели примеров из судебной практики, связанных с неправомерным использованием голоса.

Кроме того, авторы законопроекта взяли за образец действующую 152.1 Гражданского кодекса, которая относится к защите изображений гражданина. Однако такую аналогию, по мнению экспертов, проводить нельзя. К тому же при разбирательствах по данной статье из-под ее действия выводятся карикатуры и шаржи.

По мнению опрошенных «Ведомостями» юристов, проблема еще шире. Партнер фирмы «Рустам Курмаев и партнеры» Дмитрий Горбунов:

«Текущая версия законопроекта и заложенные в нем принципы выглядят противоречиво с точки зрения сложившейся не только в России, но и во всем мире правоприменительной практики и законодательства».

Объектом авторского права считается не голос как таковой, а фонограмма или иные аудиоматериалы.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru