Утчека в Университете Северной Каролины: украдена база данных 236 тыс. человек

Утчека в Университете Северной Каролины: украдена база данных 236 тыс. человек

Из Университета Северной Каролины украдена была база данных по маммологическим исследованиям. Всего в реестре, который ведется уже 14 лет, содержатся данные о 662 тыс. женщин, однако благодаря тому, что данные были разделены, скомпрометированы оказались менее половины, сообщает Perimetrix

Подробности инцидента пока неизвестны. Впрочем, скорее всего, они так и останутся нераскрытыми, поскольку расследование зашло в тупик. Следы взлома обнаружили еще в конце июля, но только в конце сентября об утечке сообщили публично. Все это время сотрудники университета совместно с внешними специалистами по информационной безопасности вели расследование. И все, чего удалось найти, это следы вирусной активности 2-летней давности. 

Мэтью Мауро (Matthew Mauro), директор центра рентгенографии Университета Северной Каролины, не стал скрывать неприятного факта. По его словам, расследование пока не выявило случаев несанкционированного использования скомпрометированных данных. Однако это вовсе не означает, что злоупотреблений не было или не будет впредь. 

«Уверен, что об утечке сообщили только потому, что расследование зашло в тупик, – считает Денис Зенкин, директор по маркетингу Perimetrix. – Оттягивать время дальше не было никакого смысла. Если уж за 2 месяца работ, изучив все логи и обстоятельства инцидента, специалисты не нашли никаких зацепок, то сейчас шансы найти злоумышленников стремятся к нулю».

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru