Разоблачена секретная группа мониторинга за пользователями соцсетей

Разоблачена секретная группа мониторинга за пользователями соцсетей

...

Фондом электронных рубежей (EFF) обнаружены документы, подтверждающие, что Департамент внутренней безопасности США шпионит за пользователями социальных сетей.

Согласно источнику, в документах отмечается факт создания правительством США секретного Центра мониторинга социальных сетей, основная функция которого выявлять мошенников среди тех, кто претендует на гражданство, используя, в качестве источника информации, социальные сети.

Как говорится в документах, на основании того, что в большинстве своем, люди обладая нарцистической натурой, создают большую аудиторию «друзей» для повышения рейтинга их страничке. Помимо этого, многие пользователи имеют, так называемых «кибер-друзей», которых они ни разу не видели. Это дает хороший «угол обзора» для службы, чтобы следить за пользователями, подозреваемыми в мошенничестве. Помимо слежки, сотрудникам центра разрешено лично участвовать в он-лайн жизни, с целью выявления преступников.

Но, по мнению EFF, основываясь только на информации о жизни частных лиц, полученной из социальной сети, нельзя утверждать, что человек является преступником, поскольку, нередко, указанная информация может не соответствовать истине.

ФСТЭК России определилась со списком угроз для ИИ-систем

В банке данных угроз (БДУ), созданном ФСТЭК России, появился раздел о проблемах, специфичных для ИИ. Риски в отношении ИБ, связанные с качеством софта, ML-моделей и наборов обучающих данных, здесь не рассматриваются.

Угрозы нарушения конфиденциальности, целостности или доступности информации, обрабатываемой с помощью ИИ, разделены на две группы — реализуемые на этапе разработки / обучения и в ходе эксплуатации таких систем.

В инфраструктуре разработчика ИИ-систем оценки на предмет безопасности информации требуют следующие объекты:

 

Объекты, подлежащие проверке на безопасность в инфраструктуре оператора ИИ-системы:

 

Дополнительно и разработчикам, и операторам следует учитывать возможность утечки конфиденциальной информации, а также кражи, отказа либо нарушения функционирования ML-моделей.

Среди векторов возможных атак упомянуты эксплойт уязвимостей в шаблонах для ИИ, модификация промптов и конфигурации агентов, исчерпание лимита на обращения к ИИ-системе с целью вызвать отказ в обслуживании (DoS).

В комментарии для «Ведомостей» первый замдиректора ФСТЭК Виталий Лютиков пояснил, что составленный ими перечень угроз для ИИ ляжет в основу разрабатываемого стандарта по безопасной разработке ИИ-систем, который планировалась вынести на обсуждение до конца этого года.

Представленная в новом разделе БДУ детализация также поможет полагающимся на ИИ госструктурам и субъектам КИИ данных скорректировать процессы моделирования угроз к моменту вступления в силу приказа ФТЭК об усилении защиты данных в ГИС (№117, заработает с марта 2026 года).

Ужесточение требований регулятора в отношении безопасности вызвано ростом числа атак, в том числе на ИИ. В этих условиях важно учитывать не только возможности ИИ-технологий, но и сопряженные с ними риски.

RSS: Новости на портале Anti-Malware.ru