Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Эксперты президентского совета не поддержали законопроект об охране голоса

Совет при президенте по кодификации и совершенствованию гражданского законодательства не поддержал законопроект об охране голоса. По их мнению, отечественное законодательство уже защищает голос как одно из материальных благ.

С отзывом на законопроект о защите голоса, который внесла в Госдуму 16 сентября группа депутатов обеих палат, ознакомилось издание «Ведомости».

Законопроект предлагает дополнить Гражданский кодекс новой статьей, которая бы регламентировала использование голоса граждан, включая воссозданный с помощью технических средств (дипфейк).

Использование голоса, в том числе дипфейков, авторы законопроекта допускают лишь с согласия обладателя или его прямых наследников в случае смерти или недееспособности. Предполагаются и исключения, например, в том случае, если запись используется в публичных интересах, запись была сделана в месте, открытом для свободного посещения, или в рамках оплачиваемой работы.

Необходимость появления нового нормативного акта его авторы объясняют широким распространением голосовых дипфейков, в том числе в противоправных целях. При этом право на охрану голоса, по мнению разработчиков законопроекта, никак не закреплено в законодательстве.

Эксперты Совета при президенте по кодификации и совершенствованию гражданского законодательства, наоборот, считают, что Конституционный суд оставляет перечень нематериальных благ открытым, и он включает и голос.

Плюс ко всему Гражданский кодекс в полной мере защищает актеров или певцов, а законодательство о защите персональных данных – голос как часть биометрических данных. Эксперты обратили внимание на то, что авторы не привели примеров из судебной практики, связанных с неправомерным использованием голоса.

Кроме того, авторы законопроекта взяли за образец действующую 152.1 Гражданского кодекса, которая относится к защите изображений гражданина. Однако такую аналогию, по мнению экспертов, проводить нельзя. К тому же при разбирательствах по данной статье из-под ее действия выводятся карикатуры и шаржи.

По мнению опрошенных «Ведомостями» юристов, проблема еще шире. Партнер фирмы «Рустам Курмаев и партнеры» Дмитрий Горбунов:

«Текущая версия законопроекта и заложенные в нем принципы выглядят противоречиво с точки зрения сложившейся не только в России, но и во всем мире правоприменительной практики и законодательства».

Объектом авторского права считается не голос как таковой, а фонограмма или иные аудиоматериалы.

43% использующих ИИ компаний ищут с его помощью уязвимости

Автоматизация рутины по-прежнему остаётся самым популярным сценарием использования ИИ в информационной безопасности. Но рынок постепенно идёт дальше. Как показал опрос «АМ Медиа», проведённый среди зрителей и участников эфира «Практика применения машинного обучения и ИИ в ИБ», почти половина компаний, уже использующих ИИ, применяют его для поиска уязвимостей и анализа защищённости.

Эфир стал продолжением предыдущей дискуссии о роли ИИ в кибербезопасности.

Если раньше речь шла в основном о теории и ожиданиях, то теперь эксперты обсуждали реальные кейсы: как выстроить пайплайн ИИ в ИБ, какие задачи он уже закрывает и какие решения действительно работают у заказчиков.

Судя по результатам опроса, 64% компаний используют ИИ для автоматизации повседневных задач. Но на этом применение не ограничивается. 43% респондентов задействуют его для поиска уязвимостей и усиления защиты. 32% — для классификации и описания инцидентов, что особенно актуально при текущем объёме событий.

Около четверти применяют ИИ для первичного триажа в SOC и автоматизированного реагирования по сценариям. А 14% доверяют ему даже поведенческий анализ в антифроде.

CEO SolidSoft Денис Гамаюнов считает такие цифры закономерными: по его словам, поиск уязвимостей — «вполне нативная задача» для больших языковых моделей. Однако он напомнил о рисках: компании должны чётко понимать, где проходит граница между использованием инструмента и возможной утечкой конфиденциальных данных внешнему провайдеру.

Заместитель генерального директора по инновациям «СёрчИнформ» Алексей Парфентьев также отметил, что результаты выглядят реалистично. По его мнению, к вероятностным алгоритмам в блокирующих средствах защиты пока относятся с осторожностью, а большинство кейсов использования ИИ в ИБ всё же связано с управленческими и вспомогательными задачами.

Более оптимистичную позицию озвучил руководитель группы развития платформы SOC Yandex Cloud Дмитрий Руссак. По его словам, команда с самого начала активно тестировала LLM, а отдельные идеи удалось масштабировать на всю инфраструктуру. В итоге ИИ используется не только для автоматизации, но и для разбора алертов, управления доступами и поиска уязвимостей.

В целом эксперты сошлись во мнении: современные модели всё ещё страдают от нехватки контекста и специализированных знаний. Поэтому внедрять ИИ нужно аккуратно — с пониманием, какие данные он получает, какие доступы имеет и где требуется обязательный человеческий контроль.

Тем не менее тренд очевиден: ИИ в ИБ перестаёт быть экспериментом и всё чаще становится рабочим инструментом — не только для автоматизации, но и для реального усиления защиты.

RSS: Новости на портале Anti-Malware.ru