Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Совет при президенте по кодификации и совершенствованию гражданского законодательства не поддержал законопроект об охране голоса. По их мнению, отечественное законодательство уже защищает голос как одно из материальных благ.

С отзывом на законопроект о защите голоса, который внесла в Госдуму 16 сентября группа депутатов обеих палат, ознакомилось издание «Ведомости».

Законопроект предлагает дополнить Гражданский кодекс новой статьей, которая бы регламентировала использование голоса граждан, включая воссозданный с помощью технических средств (дипфейк).

Использование голоса, в том числе дипфейков, авторы законопроекта допускают лишь с согласия обладателя или его прямых наследников в случае смерти или недееспособности. Предполагаются и исключения, например, в том случае, если запись используется в публичных интересах, запись была сделана в месте, открытом для свободного посещения, или в рамках оплачиваемой работы.

Необходимость появления нового нормативного акта его авторы объясняют широким распространением голосовых дипфейков, в том числе в противоправных целях. При этом право на охрану голоса, по мнению разработчиков законопроекта, никак не закреплено в законодательстве.

Эксперты Совета при президенте по кодификации и совершенствованию гражданского законодательства, наоборот, считают, что Конституционный суд оставляет перечень нематериальных благ открытым, и он включает и голос.

Плюс ко всему Гражданский кодекс в полной мере защищает актеров или певцов, а законодательство о защите персональных данных – голос как часть биометрических данных. Эксперты обратили внимание на то, что авторы не привели примеров из судебной практики, связанных с неправомерным использованием голоса.

Кроме того, авторы законопроекта взяли за образец действующую 152.1 Гражданского кодекса, которая относится к защите изображений гражданина. Однако такую аналогию, по мнению экспертов, проводить нельзя. К тому же при разбирательствах по данной статье из-под ее действия выводятся карикатуры и шаржи.

По мнению опрошенных «Ведомостями» юристов, проблема еще шире. Партнер фирмы «Рустам Курмаев и партнеры» Дмитрий Горбунов:

«Текущая версия законопроекта и заложенные в нем принципы выглядят противоречиво с точки зрения сложившейся не только в России, но и во всем мире правоприменительной практики и законодательства».

Объектом авторского права считается не голос как таковой, а фонограмма или иные аудиоматериалы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru