Глава кибербеза США бездумно слил служебные документы в ChatGPT

Глава кибербеза США бездумно слил служебные документы в ChatGPT

Глава кибербеза США бездумно слил служебные документы в ChatGPT

Возглавив Федеральное агентство кибербезопасности (CISA, подразделение МВД США), временщик Мадху Готтумуккала (Madhu Gottumukkala) запросил доступ к заблокированному ChatGPT и доверил публичному сервису конфиденциальные данные.

К счастью, ни один из загруженных документов не был помечен грифом «секретно», утекла лишь информация, предназначенная для служебного пользования.

Ее слив вызвал срабатывание сетевой защиты CISA и последующую оценку возможного ущерба. Данные, доверяемые ChatGPT, оседают лишь на серверах OpenAI и не должны попадать в паблик, однако они могут всплыть в ответах на запросы других пользователей, число которых уже превысило 700 миллионов.

По этой причине доступ к ChatGPT в американском министерстве по умолчанию блокируется. Вместо него сотрудники используют самопальный DHSChat с усиленной защитой от утечек.

Репортер Politico не без капли яда отметил, что до назначения на высокий пост Готтумуккала имел дело с ИТ лишь в качестве айтишника высокого ранга в администрации Южной Дакоты, и слив на сторону конфиденциальных данных — не единственный показатель его безграмотности в отношении ИБ.

Минувшим летом новоиспеченный и. о. главы CISA решил, что ему не помешает доступ к данным киберразведки, и даже согласился пройти специальную проверку на полиграфе. Провалив тест, индиец от злости начал увольнять всех направо и налево, а также попытался избавиться от ИТ-директора, принимавшего участие в расследовании инцидента с ChatGPT.

Эмоциональная и болезненная реакция предводителя на собственный фейл возмутила его подчиненных. В комментарии для новостного издания один из функционеров CISA заявил, что пребывание Готтумуккалы в новой должности — пока сплошной кошмар.

Нейросеть для ЖКХ научилась материться в первый месяц обучения

Разработчикам отечественного голосового помощника для сферы ЖКХ пришлось «переучивать» систему после того, как в процессе обучения бот освоил ненормативную лексику. Этот случай наглядно показал, насколько критично качество данных, на которых обучаются нейросети.

О возникшей проблеме рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов на Сибирском строительном форуме, который проходит в Новосибирске.

«Приведу забавный случай: нейросеть учится, и буквально уже в первый месяц разработчики обнаружили такую коллизию — нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься. Эту проблему, конечно, пришлось устранять. Но это в том числе показатель активного взаимодействия с нашими гражданами», — рассказал Михаил Викторов.

При этом, по его словам, внедрение ботов позволило сократить число операторов кол-центров в 5–6 раз без потери качества обслуживания. Нейросетевые инструменты способны обрабатывать до 90% входящих обращений.

Уровень удовлетворённости качеством обслуживания, по оценке Викторова, составляет около 80%. Передавать звонки операторам целесообразно лишь в экстренных случаях — например, при аварийных ситуациях.

Эксперты ранее отмечали, что именно данные, на которых обучается ИИ, являются ключевой причиной появления некорректных или предвзятых ответов нейросетевых инструментов.

RSS: Новости на портале Anti-Malware.ru