VMware добавит в свои продукты DLP-функционал

VMware добавит в свои продукты DLP-функционал

Вскоре состоится конференция VMworld, на которой компания обещает продемонстрировать новые возможности по борьбе с утечками данных, планируемые к внедрению в защитных решениях из линейки vShield.



В частности, сообщается, что в vShield версии 5 появится т.н. "инструмент обнаружения данных". Его задача будет состоять  в том, чтобы искать в виртуальной среде VMware признаки основных типов важных сведений, будь то информация, охраняемая врачебной или, к примеру, банковской тайной. Успешное изыскание подобных информационных активов (электронных амбулаторных карт, номеров кредиток либо банковских счетов и прочих сведений, подлежащих охране) будет первым шагом в постепенном развитии DLP-функционала продуктов VMware.


Компания подчеркивает, что те или иные возможности будут вводиться последовательно и постепенно, так что с появлением vShield 5 еще рано будет говорить о полноценной и полнофункциональной борьбе с утечками. Однако инструмент обнаружения данных, как ожидается, уже окажет значительную поддержку администраторам виртуальных сред - несмотря на то, что он способен лишь искать, но не задерживать важную информацию.


Препятствовать передаче конфиденциальных данных за пределы организации решения VMware научатся позднее; пока что в этом вопросе на них не стоит рассчитывать. Тем не менее, в перспективе компания надеется укрепить DLP-оборону: в числе предполагаемых будущих нововведений - возможности противодействия переходу данных из локальных хранилищ в среду распределенных вычислений (если это запрещено политикой безопасности), или передачи сведений из одного государства на территорию другого (опять же, если этому препятствуют законы либо иные нормативные акты).


"Обнаружитель данных", кстати, тоже организован по правовому принципу: информация ищется на основании требований 80 международных документов и нормативно-правовых актов США, регулирующих сферу безопасности данных и регламентирующих операции с важными сведениями. Найденную информацию можно будет эффективно отслеживать, а также проверять на факт наличия надлежащих рубежей обороны, препятствующих ее компрометации.


Computerworld


Письмо автору

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru