Тюремный срок за продажу данных 200 тыс. новорожденных

Тюремный срок за продажу данных 200 тыс. новорожденных

Тюремный срок за продажу данных 200 тыс. новорожденных

Восемь человек, причастных к краже информации о более чем 200 тыс. новорожденных, были осуждены за нарушение неприкосновенности личной информации граждан в Китае, сообщает shanghaidaily.com.

Восемь человек приговорены к тюремным срокам от семи до 27 месяцев, а так же обязаны выплатить денежные штрафы в размере до 1 тыс. долларов. Один из обвиняемых по фамилии Хан работал в городском Центре по контролю и профилактике заболеваний, а другой, по фамилии Чанг – в районном органе власти. В 2014 году Чанг убедил Хана украсть данные новорожденных из базы данных центра, чтобы помочь своему другу продавать товары медицинского назначения для новорожденных, обещая взамен щедрые комиссионные, передает infowatch.ru.

С начала 2014 года и до июля прошлого Хан незаконно копировал информацию о детях из информационной системы и дважды в месяц направлял Чангу по электронной почте. Чанг продавал информацию другому обвиняемому по фамилии Фан, работавшему в сфере производства товаров медицинского назначения для детей.

Остальные фигуранты дела, по мнению суда, также замешаны в незаконных операциях с персональными данными младенцев. Все восемь обвиняемых признали свою вину до суда, вернули свои незаконные доходы и заплатили денежные штрафы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru