Алгоритм шифрования в сетях 3G взломан на заурядном ПК

Алгоритм шифрования в сетях 3G взломан на заурядном ПК

Специалисты по криптографии из израильского института им. Вейцмана опубликовали результаты исследования алгоритма KASUMI, известного также под названием A5/3 и предназначенного для шифрования данных в сетях сотовой связи третьего поколения. Полное извлечение 128-разрядного ключа оказалось возможным произвести за крайне малое время: около двух часов на обычном двухъядерном процессоре.

Таким образом, новый алгоритм, который должен был стать одним из самых распространенных средств шифрования в мире, оказался куда менее стойким, чем даже применяющийся сейчас A5/1. Возможность относительно простого взлома A5/1 тоже была недавно продемонстрирована.

Впрочем, осуществить взлом KASUMI на практике сложнее, чем кажется, отмечают авторы. Для вычисления ключа применяется «метод связанных ключей» (related-key), а для него нужно иметь доступ к некоторому количеству незашифрованных данных и тех же данных в зашифрованном виде.

KASUMI является модификацией алгоритма MISTY1, устойчивого к описанному методу. Как полагают исследователи, просчеты, снизившие стойкость алгоритма, были сделаны при попытке ускорить его и обеспечить эффективную аппаратную реализацию.

Источник 

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru