Боты и майнеры атакуют Azure-системы после публикации эксплойта для OMIGOD

Боты и майнеры атакуют Azure-системы после публикации эксплойта для OMIGOD

Боты и майнеры атакуют Azure-системы после публикации эксплойта для OMIGOD

Киберпреступники самых разных мастей взялись активно атаковать Linux-серверы, работающие в облачной инфраструктуре Microsoft Azure. Причина довольно очевидна — недавно выявленная уязвимость OMIGOD и выложенный в общий доступ эксплойт.

Атаки стартовали 16 сентября, когда исследователи в области кибербезопасности опубликовали PoC-код (proof-of-concept) на GitHub. Злоумышленники взламывают уязвимые системы и превращают их в боты для DDoS или криптомайнинга.

Подробности кампаний киберпреступников рассказал основатель и генеральный директор GreyNoise. По его словам, атаки начинались сравнительно медленно и постепенно набирали обороты.

В самом начале около десяти вредоносных серверов сканировали Сеть, пытаясь найти дырявые серверы. Буквально за ночь число этих серверов выросло до 100.

Напомним, что об уязвимости, которая получила имя OMIGOD, стало известно летом благодаря исследователям из компании Wiz. Сама брешь кроется в приложении Open Management Infrastructure (OMI), которое Microsoft по умолчанию устанавливает на большинство виртуальных машин.

Фактически OMI является Linux-альтернативой Windows Management Infrastructure (WMI) и собирает данные из локальных окружений. Уязвимость получила идентификатор CVE-2021-38647, она позволяет злоумышленникам захватить контроль над атакуемыми серверами. Эксплуатация подразумевает отправку вредоносных пакетов.

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru