Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

ChatGPT стал причиной утечки корпоративных данных Samsung. Сотрудники ИТ-гиганта начали использовать чат-бота по работе и слили ИИ часть исходного код. Теперь секретные сведения стали частью базы знаний искусственного интеллекта.

Офису Samsung разрешали использовать ChatGPT в работе меньше месяца назад. За это время трое сотрудников успели слить чат-боту конфиденциальные данные корпорации.

Сначала один из инженеров отдела полупроводников ввел в строку ChatGPT исходный код, попросив ИИ проверить его. Во втором случае другой специалист отправил в ChatGPT исходный код для оптимизации. Третья утечка произошла, когда сотрудник Samsung попытался создать протокол встречи и отправил чат-боту корпоративные данные клиентов.

Во всех инцидентах конфиденциальная информация сразу стала частью базы знаний искусственного интеллекта, а значит, доступна всем пользователям ChatGPT.

Скорее всего, сотрудники поделились данными с ИИ, не понимая до конца принципов работы чат-бота и не осознавая того, что сведения попадут в открытый доступ.

“К этим последствиям привело простое любопытство – ведь про ChatGPT рассказывает каждое умное устройство”, — комментирует новость менеджер по продукту Ankey IDM компании “Газинформсервис” Иван Корешков. По его мнению, в этом инциденте явно не прослеживается преступного умысла.

“Тем не менее уровни доступов сотрудников к чувствительным данным следует разделять, как с помощью программного обеспечения, так и регламентировано”, — отмечает эксперт.

Чтобы избежать подобных утечек, нужно четко прописать работу отделов ИТ, ИБ и бизнес-пользователей в соответствии с правилами и политикой информационной безопасности.

В Samsung уже заявили о принятых мерах для предотвращения подобных ситуаций в будущем.

Добавим, в начале апреля YouTube-блогер под ником Enderman рассказал о том, что ему удалось научить чат-бот ChatGPT создавать лицензионные ключи для активации Windows. В результате пользователь взломал ОС Windows 95.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru