Две трети промышленных компаний замалчивают произошедшие киберинциденты

Две трети промышленных компаний замалчивают произошедшие киберинциденты

Две трети промышленных компаний замалчивают произошедшие киберинциденты

Как показали результаты последнего опроса «Лаборатории Касперского», две трети (67%) промышленных предприятий в мире не сообщают регулирующим органам о произошедших в их сетях киберинцидентах. Соответствие различным нормам и требованиям является обязательным для современных индустриальных компаний и даже служит одним из главных факторов инвестиций в информационную безопасность, однако предприятия нередко соблюдают не все правила.

К примеру, в случае с сокрытием киберинцидента промышленные компании сильнее всего переживают из-за штрафов, которые может наложить регулятор, а также из-за того, что обнародование информации о подобных событиях может повредить их репутации. В ходе опроса респонденты признались, что больше половины киберинцидентов (52%) приводят к нарушению требований регуляторов, а 63% опрошенных рассказали, что их очень волнует потенциальная возможность потери доверия клиентов вследствие киберинцидента.

За исключением ситуации с информированием регуляторов о киберинцидентах промышленные компании в целом очень серьёзно относятся к соблюдению норм и требований. По результатам опроса оказалось, что лишь 21% предприятий в мире считают, что в недостаточной степени соответствуют обязательным требованиям регулирующих органов. Кроме того, для 55% компаний необходимость соблюдения норм и правил является основным драйвером инвестиций в информационную безопасность. Однако, ориентируясь лишь на формальные требования, предприятия нередко не учитывают актуальные угрозы – только 28% компаний формируют свой бюджет на кибербезопасность, исходя из текущего ландшафта угроз.

«Соответствие нормам и требованиям регулирующих органов в индустриальной сфере – крайне серьёзная задача. Но не менее важно помнить о реальном ландшафте киберугроз, который постоянно меняется. Необходимого уровня безопасности в соответствии со всеми требованиями предприятиям поможет достичь качественное специализированное защитное решение и чёткая политика безопасности. Подобные решения должны содержать передовые технологии распознавания угроз, инструменты для оценки уязвимостей и реагирования на инциденты, а также предоставлять сотрудникам предприятий возможность совершенствовать свои знания и навыки в сфере кибербезопасности», – подчеркнул Георгий Шебулдаев, руководитель направления Kaspersky Industrial CyberSecurity.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru