США: университет допустил утечку личных данных студентов

США: университет допустил утечку личных данных студентов

Кентский университет в США допустил утечку информации, разослав ряду студентов одинаковые письма, в которых содержались имена и адреса электронной почты тех учащихся этого ВУЗа, которые причислены к группе инвалидов разной степени.



Сотрудники Кентского университета разослали 615 студентам письма касательно условий проведения летних экзаменов в учебном заведении, а точнее, наличия каких-либо специальных требований по организации экзаменов для каждого из студентов-инвалидов. При этом, имена и адреса всех адресатов находились в открытом доступе, что позволяло каждому из получателей видеть весь список рассылки, сообщает ZDNet.

Как отмечает автор издания, в результате этой утечки сторонним лицам стали известны имена всех студентов университета, которые являются инвалидами. Представители ВУЗа уже опубликовали свое заявление с извинениями по поводу данного инцидента, пообещав разобраться и наказать виновных. Также об утечке поставили в известность Управление по делам информации США, которое и займется расследованием.

Еще одна значительная утечка, связанная с личными данными студентов, недавно произошла в Университете Йорка, Британия. В результате инцидента была скомпрометирована информация более чем 17 тыс. студентов.

Их личные данные по ошибке выложили в открытом доступе на официальном сайте университета. Таким образом, всем желающим были доступны номера мобильных телефонов студентов, их даты рождения, имена, оценки по различным предметам в ходе обучения и информация о предыдущем образовании.

Из-за утечки пострадали и все сотрудники ВУЗа, данные которых также находились в открытом доступе на сайте. Кроме того, в опубликованной базе оказались имена и контактные данные некоторых родственников студентов.

«Наверно, каждый сталкивался с неумением использовать поле "скрытая копия", когда его адрес фигурировал среди множества других. С одной стороны, в этом нет ничего страшного, но с другой стороны, почему-то часто после подобных рассылок увеличивается количество спама. И, конечно, не стоит забывать, что многие адресаты просто не хотят демонстрировать свой адрес другим получателям, например, конкурентам в тендере», - прокомментировал Александр Ковалев, директор по маркетингу компании SecurIT, российского разработчика DLP-решений.

В России хотят поставить на учет учебные материалы для ИИ-моделей

Минцифры РФ готовит законопроект, обязывающий разработчиков раскрывать сведения о наборах данных, используемых для обучения ИИ-моделей. Инициатива пока обсуждается в профильных ведомствах и сообществах игроков рынка.

Как выяснили «Ведомости», создатели подобных решений должны будут указывать наименование набора для тренинга, дату его создания, формат, объем и происхождение. В перспективе возможно создание специализированного реестра для ИИ.

Предложение выдвинуто в рамках работы правительства над регулированием сферы ИИ. Пока лишь известно, что разрабатываемый закон определит критерии российского происхождения нейросетей, закрепит право на авторство, обязанности и ответственность разработчиков, а также введет маркировку ИИ-контента.

Параллельно российские власти работают над мерами противодействия использованию ИИ в противоправных целях. Предложено даже признать применение ИИ отягчающим обстоятельством при совершении преступлений.

Предложение Минцифры о раскрытии источников обучающих данных для больших языковых моделей пока не принято на рассмотрение. Опрошенные новостным изданием эксперты сомневаются, что иностранные вендоры вроде OpenAI, Microsoft, Google, Perplexity будут соблюдать это требование.

По идее, новая инициатива должна повысить доверие к ИИ, возможность независимой оценки качества таких решений и дисциплины работы с данными. В то же время нововведение, скорее всего, потребует создания специального реестра, который будет заполняться формально из-за увеличения нагрузки на разработчиков, заинтересованных в скорейшем выводе ИИ-решений на рынок.

В то же время эксперты отметили, что в условиях дефицита качественных и юридически чистых наборов данных для обучения ИИ раскрытие их происхождения будет способствовать формированию нового коммерческого рынка.

Использование данных, взятых из открытых источников и без ведома владельцев создает риски утечки конфиденциальной информации и порождает конфликт интересов в случаях нарушения авторских прав. Подобные ситуации вынуждают создателей ИИ-моделей более внимательно относиться к подбору учебных данных и в случае необходимости покупать права на контент либо заключать договоры на использование.

В настоящее время закона, регулирующего сферу ИИ, в России нет; в законодательстве даже отсутствуют нужные определения. Освоение таких технологий пока осуществляется в соответствии с утвержденной указом Президента стратегией развития ИИ до 2030 года.

По этой причине попытки госрегулирования пока носят декларативный или рекомендательный характер. Так, в конце прошлого года было выдвинуто предложение о создании технических стандартов по ИИ и продвижение их на международном уровне.

Минцифры также определилось с требованиями к ПАК для ИИ и собирается создать киберполигон для проверки безопасности ИИ-систем, предназначенных для использования на критически важных объектах.

RSS: Новости на портале Anti-Malware.ru