Проблемы безопасности облачных сред

Проблемы безопасности облачных сред

 Не секрет, что на сегодняшний день технология облачных сред развивается весьма активно, и позиционируется на рынке информационных технологий как практически идеальное решение, как для домашних пользователей, позволяющее им хранить личную информацию (электронные письма, музыку и т.д.), так и для госструктур и бизнеса. Известно, что облачные среды для хранения информации активно используют различные военные ведомства США, а также ЦРУ, Федеральное управление гражданской авиации США (FAA) и ряд других госучреждений различного уровня.

Одним из главных преимуществ применения облачных сред является то, что доступ к данным, находящимся в облачной среде, можно получить из любой точки земного шара. При этом совсем не обязательно использовать стационарный компьютер, зачастую вполне достаточно современного мобильного устройства.

Основными поставщиками облачных сервисов на сегодняшний день являются Oracle, Sap, Salesforce.com. Активными пользователями облачных сервисов являются такие компании, как Microsoft,Google, Amazon и т.д. По прогнозам аналитиков, до 2016 года общие расходы на различные облачные сервисы только в США достигнут 82 миллиардов долларов. Для сравнения: по состоянию на конец 2011 года, общая сумма расходов на облачные сервисы США достигла отметки 31 миллиард долларов.

Хотя одним из преимуществ облачных сред считается высокая степень защищенности хранящейся там информации, ряд экспертов высказывает опасения по этому поводу, заявляя, что проблемы безопасности облачных сред изучены далеко не полностью. По словам научного сотрудника лаборатории компьютерных наук и искусственного интеллекта при Массачусетском технологическом институте Стелиуса Сидироглу-Доускаса, работающего над проектом создания самовосстанавливающихся облачных сред, финансируемым правительством США, «…фактически облачные среды лишь усложняют задачу хакеров, желающих выкрасть или уничтожить ту или иную информацию. Однако, полностью защитить информацию от достаточно опытного хакера облачная среда не сможет».

Если хакерам все же удастся взломать защиту облачной среды, объемы потерянных данных будут во много раз больше, нежели в результате взлома отдельного компьютера или локальной сети. На сегодняшний день группа ученых, работающих над проектом самовосстанавливающихся облачных сред, пытается создать технологию автоматического устранения нарушений системы безопасности облачных сред, работающую по принципу иммунной системы человека. Стелиус Доускас также напомнил, что количество нарушений системы безопасности облачных сред неуклонно растет. Примером могут служить хакерские атаки на Sony PlayStation Network, LinkedIn и Gmail.

Ряд экспертов также отмечает, что серьезной проблемой при хранении данных в облачной среде может стать тот факт, что даже если пользователь захочет убрать какие-либо данные из облачной среды, он не может быть на сто процентов уверен в том, что стертая им информация уничтожена полностью.

Многих специалистов также беспокоит появление так называемых ложных облачных сред. Цены на хранение данных в подобных облачных средах, как правило, минимальны. Такие облачные среды специально создаются злоумышленниками, с целью получить доступ к конфиденциальной информации. По словам специалистов, в большинстве своем ложные облачные среды создаются и функционируют на территории бывшего СССР и Китая.

Еще одной проблемой функционирования облачных сред является отсутствие четкого юридического определения того, кто несет ответственность за потерю данных при взломе облачной среды, а также отсутствие четко прописанных обстоятельств, при возникновении которых доступ к данным, размещаемым в облачной среде частными лицами и различными организациями, может предоставляться государственным органам.

 Не секрет, что на сегодняшний день технология облачных сред развивается весьма активно, и позиционируется на рынке информационных технологий как практически идеальное решение, как для домашних пользователей, позволяющее им хранить личную информацию (электронные письма, музыку и т.д.), так и для госструктур и бизнеса. Известно, что облачные среды для хранения информации активно используют различные военные ведомства США, а также ЦРУ, Федеральное управление гражданской авиации США (FAA) и ряд других госучреждений различного уровня." />

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru