DuPont обвиняет сотрудника в промышленном шпионаже

DuPont обвиняет сотрудника в промышленном шпионаже

Промышленный гигант, компания DuPont подала иск против своего сотрудника, по обвинению в планировании промышленного шпионажа и продаже коммерческих тайн компании в Китай, сообщает в новостной журнал The News Journal, Делавер.

Старший научный сотрудник химической лаборатории, Хонг Менг, признался руководителю службы безопасности DuPont, что в августе он скачал конфиденциальные файлы компании со своего рабочего ноутбука на дополнительный жесткий диск. Как сообщается в статье, цитирующей судебные документы, в файлах содержалась информация по научным исследованиям в области ОСИД технологий (органический светоизлучающий диод).

Как говорится в сообщении, Менг планировал передать интеллектуальную собственность компании DuPont в Пекинский Университет, который проводит исследования в области ОСИД технологий.
«Копирование секретных данных на дополнительный жесткий диск уже является нарушением безопасности, - комментирует ситуацию, директор компании TriGeo Network Security, Майкл Малуф в интервью SCMagazineUS.com. - Почему в момент подключения диска не сработала сигнализация?»
Несколько лет назад в компании DuPont уже был подобный случай, когда сотрудник, проработавший в 10 лет, скачал более чем 16,700 конфиденциальных документов и 22,000 научных рефератов, в период с августа по декабрь 2005 года, с намерением передать их конкуренту DuPont, компании Victrex. Обвиняемый по этому делу, Гари Мин, гражданин Китая, был приговорен к 18 месяцам лишения свободы. По словам Малуфа, прошлый случай ничему не научил компанию, оба сотрудника имели доступ к конфиденциальным данным, а утечки были обнаружены только спустя время. Компания DuPont отказалась от комментариев.

«Когда информация настолько дорога, что угроза поимки и последующего наказания не может остановить злоумышленного инсайдера, должна быть пересмотрена вся стратегия технической защиты информации, - комментирует инцидент главный аналитик компании InfoWatch, эксперта в области систем защиты данных от утечки, Николай Федотов. – Вместо отслеживания операций и теневого архивирования (эти задачи выполняет DLP-система) должны применяться такие технологии организации доступа к данным, чтобы у работников вообще не было технической возможности отправить информацию куда бы то ни было по какому бы то ни было каналу. Например, хранение и обработка всех данных только на сервере, к которому организован только терминальный доступ.»

По мнению заместителя генерального директора по стратегии безопасности Guardium, Фила Нери, защитить базу данных можно, но эта защита не поможет в случае авторизованного доступа. Большинство инсайдеров имеют доступ к данным, для возможности работать с ними. Смысл заключается в том, то у вас есть адекватные средства, чтобы идентифицировать сотрудника, который злоупотребляет своими полномочиями. У большинства компаний существует политика безопасности, но отсутствуют инструменты для ее защиты. В основном, внимание злоумышленников привлекает финансовая информация, но этот случай показывает, что у компаний есть информация, которая должна быть под защитой. «Не забывайте защищать базу данных с интеллектуальной собственностью».

Источник

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru