Электроэнергетические компании чаще других страдают от социальной инженерии

Электроэнергетические компании чаще других страдают от социальной инженерии

По данным Check Point Software Technologies, за последние 2 года целевым атакам, использующим методы социальной инженерии, подверглись 43% бизнес-структур и некоммерческих организаций. При этом 32% предприятий были атакованы 25 и более раз.



Исследование было проведено по результатам летнего онлайн-опроса, проведенного по заказу Check Point маркетинговой компанией Dimensional Research. В опросе приняли участие свыше 850 ИТ-профессионалов и специалистов по информационной безопасности, представляющих разные по величине и профилю компании США, Великобритании, Канады, Австралии, Новой Зеландии и Германии. Лишь 16% из них с уверенностью заявили, что их работодателей «социальные инженеры» не беспокоят, сообщает securelist

Как показал опрос, чаще прочих от целевых атак, рассчитанных на человеческий фактор, страдают электроэнергетические компании и коммунальные службы (61% респондентов). Наибольший урон эти инциденты наносят финансовым институтам и производственным предприятиям. Каждая кибератака, использующая социальный инжиниринг, в среднем обходится жертве в 25-100 тыс. долларов. В половине случаев целью нападения является получение материальной выгоды, реже ― промышленный шпионаж, ослабление конкурентоспособности или личная месть.

Рост популярности Web 2.0 и мобильного доступа к интернету упростил поиск персональных данных и расширил поле деятельности злоумышленников, практикующих социально-инженерные трюки. Согласно результатам опроса, наиболее распространенными источниками угрозы являются фишинговые письма (47% ответов), социальные сети (39%) и незащищенные мобильные устройства (12%). Группу повышенного риска в компании составляют новобранцы (60% голосов) и фрилансеры (44%), плохо знающие внутреннюю политику безопасности.

Хотя 86% участников опроса заявили, что прекрасно осознают риски, связанные с человеческим фактором, лишь 26% регулярно проводят профилактические тренинги для персонала. 19% планируют разработку такой программы, а 40% возлагают ответственность за возможные утечки на персонал, который должен знать и строго соблюдать соответствующие циркуляры.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru