Ученые предложили заменить пароли игрой

Ученые предложили заменить пароли игрой

Ученые из Стенфордского университета предложили способ подсознательно запоминать информацию так, чтобы ее нельзя было передать другому лицу даже под угрозой "последнего аргумента криптоанализа". Доклад о результатах исследования будет представлен на конференции USENIX, препринт доступен на сайте авторов, а содержание работы пересказывает New Scientist.

Авторы исследования создали компьютерную игру, в которой добровольцы должны были не давать случайно появляющимся на экране объектам упасть. Для этого нужно было нажимать ту клавишу на клавиатуре, которая соответствовала одному из шести мест, где появлялись объекты. Внешне игра напоминала советскую переносную консоль "Ну, погоди!".

Кажущаяся случайной последовательность появления объектов повторялась более ста раз в течение 30-45 минут игры. Добровольцы, сами того не подозревая, запоминали эту последовательность - спустя две недели после эксперимента они справлялись с игрой гораздо лучше, если последовательность была той же, пишет lenta.ru.

Исследователи показали, что такое обучение можно применить для аутентификации в качестве замены запоминанию пароля. Теоретические шансы случайного подбора использованной последовательности (30 шагов по шесть вариантов) оказались очень низкими.

Основное преимущество предложенного способа аутентификации - невозможность передачи пароля другому лицу. Несмотря на то, что мозг добровольцев хранил информацию о последовательности, сами они не могли ее воспроизвести. В этом отношении такой способ аутентификации напоминает биометрию. В отличие от последней, он существенно более гибок и позволяет заменить скомпрометированный ключ на новый. Для этого достаточно просто провести новое обучение.

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru