Оператор «Telstra» нарушил Закон о конфиденциальности

Оператор «Telstra» нарушил Закон о конфиденциальности

Аналитический центр InfoWatch сообщает, что австралийскому оператору Telstra предъявлено обвинение в нарушении Закона о конфиденциальности. Личные данные около 60 300 клиентов компании Telstra были отправлены посторонним людям.



В октябре прошло года Управление по связи и СМИ, а также Комиссар по конфиденциальности Австралии Тимоти Пилгрим были привлечены для расследования почтовой ошибки компании Telstra, в результате которой 220 000 писем компании были отправлены по неверным адресам. Письма содержали личную информацию клиентов, включая фамилию и имя, номер телефона и телефонные планы. Более 23 000 таких писем содержали телефонные номера, запрещенные к разглашению.

Сегодня в своем сообщении Пилгрим заявил, что вопреки первоначальной оценке компании Telstra вместо 220 000 неверно адресованных писем, всего было отправлено 60 300 писем. Из них 26% (15 400 писем) были отправлены обратно без вскрытия. Пилгрим сообщает, что хотя нарушение Закона о конфиденциальности имело место, это был единичный случай.

Речь идёт о традиционных бумажных письмах. При их массовой рассылке используются специальные принтеры, которые печатают и текст, и адрес, и марку. И даже заклеивают конверт. Никакой ручной работы. А программы частенько ошибаются. Единственная ошибка, счётчик сбивается на единицу - и тысячи писем уходят по некорректным адресам. Таких инцидентов в последние годы становится всё больше. Есть надежда, что подобные наказания окажут косвенное влияние на производителей софта для "почтовых принтеров".

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru