Эксперты: Лжеуязвимости в программах — ключ к спасению от эксплойтов

Эксперты: Лжеуязвимости в программах — ключ к спасению от эксплойтов

Эксперты: Лжеуязвимости в программах — ключ к спасению от эксплойтов

Интересную идею на днях предложили эксперты — специалисты считают, что программное обеспечение можно сделать более безопасным, если добавить в его код некоторое количество лжебагов, на эксплуатацию которых злоумышленники потратят лишнее время.

Таким образом, считают представители Нью-Йоркского университета, это отвлечет киберпреступников от реальных уязвимостей, на поиск которых еще потребуется затратить немалое количество времени.

Один из исследователей сообщил, что его команда работает над автоматизацией добавление подобных лжебагов в код программ.

«У меня есть друзья, которые зарабатывают написанием эксплойтов. Так что я имею представление о том, какое количество работы есть между обнаружением уязвимости и созданием рабочего эксплойта», — объясняет эксперт.

«В настоящее время мало людей, которые способны писать грамотные эксплойты, их время стоит очень дорого. Следовательно, для них фейковые уязвимости станут отличным сдерживающим фактором».

Эксплуатация брешей — очень трудоемкая задача, которая включает в себя поиск уязвимостей, их оценка, попытки эксплуатации, создание проверенного способа эксплуатации и внедрение эксплойта в систему.

Таким образом, новый подход, который предлагают специалисты, вполне может частично затруднить работу киберпреступников. Что ж, похоже, он имеет право на жизнь.

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru