Google сама себя сертифицировала по госнормативам ИБ США

Google сама себя сертифицировала по госнормативам ИБ США

На днях в ходе судебных разбирательств, в которые вовлечены американское правительство, корпорация Microsoft и Google, выяснилась странная вещь: поисковый гигант утверждал, будто его "облачный" программный пакет Google Apps for Government сертифицирован на соответствие федеральному акту об организации защиты информации, не имея на то никаких достоверных оснований.


Тяжба началась еще в прошлом году, когда Google подала иск в защиту свободной конкуренции против государства - за то, что американское МВД выбрало систему делегированных вычислений от Microsoft для построения своей новой электропочтовой службы. При этом юристы истца особо подчеркивали, что "облачное" решение Google имеет сертификат соответствия требованиям акта FISMA (Federal Information Security Management Act), которым продукт редмондской корпорации не располагает.

FISMA-сертификация - это серьезный козырь. В этом акте рассмотрены основные вопросы обеспечения надлежащей безопасности данных для государственных ведомств США, и вполне естественно, что отвечающий его стандартам продукт более предпочтителен для такого учреждения, как министерство внутренних дел. В силу этого претензии Google казались вполне обоснованными.

Однако вчера представитель Microsoft Дэвид Говард сообщил в корпоративном блоге компании, что проводимые министерством юстиции США проверки выявили загадочный факт: у решения Google Apps for Government... не оказалось сертификата соответствия FISMA. Это весьма удивительно, тем более что на странице с описанием данного "облачного" продукта Google и по сей день утверждает обратное.

В итоге выяснилось, что сертификат у поискового гиганта все-таки был, но на другой вариант программного пакета - Google Apps Premier; в свою очередь, версия for Government, как объяснили представители истца, является лишь его усовершенствованной и усиленной модификацией. Иными словами, в Google решили, что если продукт Premier прошел проверку на соответствие FISMA, то основанный на нем и более надежный выпуск for Government автоматически будет считаться отвечающим требованиям федерального акта.

Таким образом, компания де-факто сама сертифицировала свое решение, не советуясь с компетентными контрольно-надзорными органами и полагаясь не на существующие нормы и правила, а лишь на свое умозрительное представление о том, какими они могут быть. Чиновники, однако, объяснили представителям Google, что сознание не определяет бытие, и в объективной реальности проверку на соответствие FISMA нужно проходить заново, если сертифицированный продукт был подвергнут модификациям.

Теперь поисковый гигант, конечно, представит необходимые документы по правилам, и вполне вероятно, что решение Google Apps for Government получит свое FISMA-удостоверение. Однако, к сожалению, компания выставила себя не в самом благоприятном свете, использовав в промо-материалах и даже в судебно-исковых заявлениях фактически ложную информацию, основанную на домыслах. Складывается впечатление, что руководство Google рассматривает свою деятельность скорее как игру, нежели как серьезный бизнес; во всяком случае, некоторые аналитики уже намекают, что компании не мешало бы стать немного "взрослее".  

ZDNet

Письмо автору

" />

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru