Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

Сотрудники Samsung разболтали чат-боту ChatGPT исходный код

ChatGPT стал причиной утечки корпоративных данных Samsung. Сотрудники ИТ-гиганта начали использовать чат-бота по работе и слили ИИ часть исходного код. Теперь секретные сведения стали частью базы знаний искусственного интеллекта.

Офису Samsung разрешали использовать ChatGPT в работе меньше месяца назад. За это время трое сотрудников успели слить чат-боту конфиденциальные данные корпорации.

Сначала один из инженеров отдела полупроводников ввел в строку ChatGPT исходный код, попросив ИИ проверить его. Во втором случае другой специалист отправил в ChatGPT исходный код для оптимизации. Третья утечка произошла, когда сотрудник Samsung попытался создать протокол встречи и отправил чат-боту корпоративные данные клиентов.

Во всех инцидентах конфиденциальная информация сразу стала частью базы знаний искусственного интеллекта, а значит, доступна всем пользователям ChatGPT.

Скорее всего, сотрудники поделились данными с ИИ, не понимая до конца принципов работы чат-бота и не осознавая того, что сведения попадут в открытый доступ.

“К этим последствиям привело простое любопытство – ведь про ChatGPT рассказывает каждое умное устройство”, — комментирует новость менеджер по продукту Ankey IDM компании “Газинформсервис” Иван Корешков. По его мнению, в этом инциденте явно не прослеживается преступного умысла.

“Тем не менее уровни доступов сотрудников к чувствительным данным следует разделять, как с помощью программного обеспечения, так и регламентировано”, — отмечает эксперт.

Чтобы избежать подобных утечек, нужно четко прописать работу отделов ИТ, ИБ и бизнес-пользователей в соответствии с правилами и политикой информационной безопасности.

В Samsung уже заявили о принятых мерах для предотвращения подобных ситуаций в будущем.

Добавим, в начале апреля YouTube-блогер под ником Enderman рассказал о том, что ему удалось научить чат-бот ChatGPT создавать лицензионные ключи для активации Windows. В результате пользователь взломал ОС Windows 95.

Глава кибербеза США бездумно слил служебные документы в ChatGPT

Возглавив Федеральное агентство кибербезопасности (CISA, подразделение МВД США), временщик Мадху Готтумуккала (Madhu Gottumukkala) запросил доступ к заблокированному ChatGPT и доверил публичному сервису конфиденциальные данные.

К счастью, ни один из загруженных документов не был помечен грифом «секретно», утекла лишь информация, предназначенная для служебного пользования.

Ее слив вызвал срабатывание сетевой защиты CISA и последующую оценку возможного ущерба. Данные, доверяемые ChatGPT, оседают лишь на серверах OpenAI и не должны попадать в паблик, однако они могут всплыть в ответах на запросы других пользователей, число которых уже превысило 700 миллионов.

По этой причине доступ к ChatGPT в американском министерстве по умолчанию блокируется. Вместо него сотрудники используют самопальный DHSChat с усиленной защитой от утечек.

Репортер Politico не без капли яда отметил, что до назначения на высокий пост Готтумуккала имел дело с ИТ лишь в качестве айтишника высокого ранга в администрации Южной Дакоты, и слив на сторону конфиденциальных данных — не единственный показатель его безграмотности в отношении ИБ.

Минувшим летом новоиспеченный и. о. главы CISA решил, что ему не помешает доступ к данным киберразведки, и даже согласился пройти специальную проверку на полиграфе. Провалив тест, индиец от злости начал увольнять всех направо и налево, а также попытался избавиться от ИТ-директора, принимавшего участие в расследовании инцидента с ChatGPT.

Эмоциональная и болезненная реакция предводителя на собственный фейл возмутила его подчиненных. В комментарии для новостного издания один из функционеров CISA заявил, что пребывание Готтумуккалы в новой должности — пока сплошной кошмар.

RSS: Новости на портале Anti-Malware.ru