Бывшего сотрудника Cambridge Analytica вызвали в Сенат США

Бывшего сотрудника Cambridge Analytica вызвали в Сенат США

Бывшего сотрудника Cambridge Analytica вызвали в Сенат США

Некто Александр Коган, ранее работавший подрядчиком Cambridge Analytica, вызван для дачи показаний в Сенат США. Тема для обсуждений будет все та же — утечка персональных данных пользователей социальной сети Facebook.

Как утверждают представители Facebook, именно Коган собирал данные пользователей через специальное приложение.

Собранную информацию экс-сотрудник передавал Cambridge Analytica, что противоречило правилам социальной платформы Facebook.

Теперь Когану придется объяснять свои действия Сенату, что может повлечь за собой серьезные последствия как для него, так и для Cambridge Analytica, с подачи которой он, судя по всему, действовал.

Напомним, что в конце мая глава Facebook Марк Цукерберг выступил в Европарламенте по тому же делу.

Цукерберг заявил, что Facebook несет ответственность за данные своих пользователей.

«Если мы не в состоянии обеспечить безопасность данных наших пользователей, то не заслуживаем их доверия. На данном этапе я пытаюсь разобраться в ситуации и принять меры, чтобы этого больше не повторилось», — заявил основатель Facebook.

Цукерберг также отметил, что меры по предотвращению подобных инцидентов были приняты еще несколько лет назад, «но нам есть над чем еще работать».

Каждый десятый россиянин использует ИИ для создания рабочих паролей

Как выяснили в «Лаборатория Касперского» и hh.ru, часть россиян уже доверяет нейросетям даже такую важную задачу, как создание паролей для рабочих аккаунтов. По данным совместного опроса, каждый десятый использует ИИ для генерации паролей к корпоративным сервисам.

Ещё 6% применяют нейросети для управления паролями или их хранения. Это уже выглядит рискованнее: если пользователь вводит в ИИ-сервис лишние данные, они потенциально могут оказаться вне контроля компании.

В целом большинство пользователей пока относятся к такой практике осторожно. Но есть и те, кто готов доверять ИИ даже в вопросах с высокой ценой ошибки.

Так, 11% опрошенных заявили, что могли бы поручить нейросети создание паролей для рабочих ресурсов с конфиденциальной информацией. Столько же признались, что в некоторых случаях доверяют ИИ в генерации паролей больше, чем себе.

Эксперты напоминают: сама идея создать сложную комбинацию с помощью технологии не плоха. Проблема начинается, когда человек в запросе указывает название компании, конкретный сервис или другие детали, которые лучше не светить во внешней системе. Кроме того, предложенный нейросетью пароль не стоит использовать в исходном виде.

В «Лаборатории Касперского» советуют безопаснее подходить к таким сценариям: не передавать ИИ конфиденциальные данные, просить несколько вариантов и затем собирать собственную комбинацию.

Для компаний более надёжным вариантом остаются корпоративные менеджеры паролей, где можно централизованно управлять учётными данными и контролировать правила безопасности.

RSS: Новости на портале Anti-Malware.ru