Калифорнийский хакер пообещал взломать код GSM

Калифорнийский хакер пообещал взломать код GSM

...

Карстен Нол, член немецкой хакерской группы CCC (Chaos Computer Club), официально работающий исследователем в калифорнийской фирме H4RDW4RE, которая занимается вопросами компьютерной безопасности, планирует до конца года взломать алгоритм кодирования данных в сетях GSM. Об этом пишет IEEE Spectrum.

Каждому из телефонов в сети GSM присвоен секретный ключ, по которому аппарат распознается системой. При звонке этот ключ используется для создания другого, сессионного ключа, с помощью которого уже шифруется весь разговор. Именно его и рассчитывает взломать Нол.

Для этого он написал программу с открытой архитектурой, которая должна объединить 80 компьютеров в пиринговую сеть. По расчетам исследователя, этих ресурсов должно оказаться достаточно для взлома, а в силу децентрализованности данных в пиринговых сетях, информацию, однажды попавшую туда, будет практически невозможно уничтожить.

Источник 

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru