Взломана база с личными данными 400 тыс. человек

Взломана база с личными данными 400 тыс. человек

Министерство здравоохранения Пуэрто-Рико сообщило о крупной утечке личных данных граждан государства, произошедшей по вине страховых компаний Triple-S Management и Triple-S Salud. Согласно этой информации, из-за утечки были скомпрометированы личные данные около 400 тыс. человек. Как сообщает ресурс databreaches.net, один из сотрудников страховой компании Medical Card System, конкурента Triple-S, незаконно получил доступ к базе данных Triple-S Salud, в которой содержалась информация о людях, участвующих в различных программах правительства Пуэрто-Рико, связанных со здравоохранением. 



В базе данных содержались имена людей, адреса, а также медицинская информация с полным перечнем диагностированных заболеваний и процедур по их лечению.

«21 сентября 2010 г. наш конкурент сообщил нам, что база данных, администрируемая нашей дочерней компанией Triple-S, с личными данными около 398 тыс. человек была взломана кем-то из сотрудников компании Medical Card System в период с 9 по 15 сентября текущего года. Мы немедленно начали внутреннее расследование и перекрыли доступ к конфиденциальным данным», - говорится в заявлении Triple-S.

В ходе расследования было также установлено, что ранее злоумышленники несколько раз уже проникали в базу данных компании в период с октября 2008 г. по август 2010 г. Номера социального страхования лиц, записи о которых содержались в базе, скомпрометированы не были.

Виновных во взломе базы данных найти пока не удалось. Компании Triple-S были оштрафованы на $100 тыс. из-за данного инцидента.

«Как показывает практика, штрафы редко пугают крупные компании. Во-первых, в большинстве случаев суммы несущественны для бизнеса. Во-вторых, нельзя стимулировать компании защищать персональные данные с помощью штрафов, когда непонятен алгоритм их подсчета. Например, было бы эффективнее ввести зависимость суммы штрафа от количества пострадавших и категории данных», - отметил Александр Ковалев, директор по маркетингу компании SecurIT, российского разработчика DLP-решений.

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru