Полицейский «слил» персональные данные журналистам

Полицейский «слил» персональные данные журналистам

Крупная утечка данных произошла по вине сотрудника полицейского департамента графства Гуэнт, Великобритания, который случайно отправил конфиденциальную информацию по электронной почте.

По данным управления защиты информации Великобритании (ICO), полицейский, перепутав адреса, отправил 10000 файлов, в 863 из которых содержались персональные данные. Причем, как оказалось, сообщение было направлено журналисту.

После того, как стало известно о случившемся, полицейский департамент провел собственное расследование и по результатам были предприняты необходимые меры, дабы предотвратить подобные инциденты в будущем. В частности, для персонала были проведены обучающие тренинги на тему необходимости защищать информацию паролем и отправлять ее посредством электронной почты только в случае крайней необходимости.

Важно отметить, что за столь грубое нарушение закона о защите информации, департамент отделался лишь предупреждением, подписав официальную бумагу о том, что обязуется впредь не допускать подобных инцидентов.

Согласно сообщению, утечка произошла еще в августе прошлого года, однако ICO были настроены настолько лояльно, что решили не публиковать информацию до того, как завершится расследование.

ФСТЭК России определилась со списком угроз для ИИ-систем

В банке данных угроз (БДУ), созданном ФСТЭК России, появился раздел о проблемах, специфичных для ИИ. Риски в отношении ИБ, связанные с качеством софта, ML-моделей и наборов обучающих данных, здесь не рассматриваются.

Угрозы нарушения конфиденциальности, целостности или доступности информации, обрабатываемой с помощью ИИ, разделены на две группы — реализуемые на этапе разработки / обучения и в ходе эксплуатации таких систем.

В инфраструктуре разработчика ИИ-систем оценки на предмет безопасности информации требуют следующие объекты:

 

Объекты, подлежащие проверке на безопасность в инфраструктуре оператора ИИ-системы:

 

Дополнительно и разработчикам, и операторам следует учитывать возможность утечки конфиденциальной информации, а также кражи, отказа либо нарушения функционирования ML-моделей.

Среди векторов возможных атак упомянуты эксплойт уязвимостей в шаблонах для ИИ, модификация промптов и конфигурации агентов, исчерпание лимита на обращения к ИИ-системе с целью вызвать отказ в обслуживании (DoS).

В комментарии для «Ведомостей» первый замдиректора ФСТЭК Виталий Лютиков пояснил, что составленный ими перечень угроз для ИИ ляжет в основу разрабатываемого стандарта по безопасной разработке ИИ-систем, который планировалась вынести на обсуждение до конца этого года.

Представленная в новом разделе БДУ детализация также поможет полагающимся на ИИ госструктурам и субъектам КИИ данных скорректировать процессы моделирования угроз к моменту вступления в силу приказа ФТЭК об усилении защиты данных в ГИС (№117, заработает с марта 2026 года).

Ужесточение требований регулятора в отношении безопасности вызвано ростом числа атак, в том числе на ИИ. В этих условиях важно учитывать не только возможности ИИ-технологий, но и сопряженные с ними риски.

RSS: Новости на портале Anti-Malware.ru