Суд в Москве запретил сайт с голосами Путина, Трампа, Синатры и Губки Боба

Суд в Москве запретил сайт с голосами Путина, Трампа, Синатры и Губки Боба

Суд в Москве запретил сайт с голосами Путина, Трампа, Синатры и Губки Боба

Один из московских судов удовлетворил иск прокуратуры и принял решение о запрете сайта, предоставлявшего возможность говорить голосами известных личностей.

На этом ресурсе пользователи могли подменять свой голос в реальном времени с помощью технологий искусственного интеллекта.

В числе доступных голосов были Владимир Путин, Дональд Трамп, Фрэнк Синатра, Майкл Джексон, Губка Боб и другие известные исполнители, а также персонажи кино, телевидения и мультфильмов.

По мнению прокуратуры, деятельность сайта нарушала нормы российского законодательства. Особое внимание надзорное ведомство уделило несоответствию требованиям законов «О связи» и «О противодействии терроризму». Ведомство указало, что изменение голоса в процессе телефонного разговора делает невозможной идентификацию абонента и может способствовать совершению противоправных действий.

Суд согласился с доводами прокуратуры и постановил заблокировать сайт. Об этом сообщило агентство «РИА Новости», в распоряжении которого оказалось соответствующее судебное решение.

Каждый десятый россиянин использует ИИ для создания рабочих паролей

Как выяснили в «Лаборатория Касперского» и hh.ru, часть россиян уже доверяет нейросетям даже такую важную задачу, как создание паролей для рабочих аккаунтов. По данным совместного опроса, каждый десятый использует ИИ для генерации паролей к корпоративным сервисам.

Ещё 6% применяют нейросети для управления паролями или их хранения. Это уже выглядит рискованнее: если пользователь вводит в ИИ-сервис лишние данные, они потенциально могут оказаться вне контроля компании.

В целом большинство пользователей пока относятся к такой практике осторожно. Но есть и те, кто готов доверять ИИ даже в вопросах с высокой ценой ошибки.

Так, 11% опрошенных заявили, что могли бы поручить нейросети создание паролей для рабочих ресурсов с конфиденциальной информацией. Столько же признались, что в некоторых случаях доверяют ИИ в генерации паролей больше, чем себе.

Эксперты напоминают: сама идея создать сложную комбинацию с помощью технологии не плоха. Проблема начинается, когда человек в запросе указывает название компании, конкретный сервис или другие детали, которые лучше не светить во внешней системе. Кроме того, предложенный нейросетью пароль не стоит использовать в исходном виде.

В «Лаборатории Касперского» советуют безопаснее подходить к таким сценариям: не передавать ИИ конфиденциальные данные, просить несколько вариантов и затем собирать собственную комбинацию.

Для компаний более надёжным вариантом остаются корпоративные менеджеры паролей, где можно централизованно управлять учётными данными и контролировать правила безопасности.

RSS: Новости на портале Anti-Malware.ru