ЛК продолжает исследовать проблемы безопасности в «умных» городах

ЛК продолжает исследовать проблемы безопасности в «умных» городах

ЛК продолжает исследовать проблемы безопасности в «умных» городах

«Лаборатория Касперского» помогла Европейскому агентству по сетевой и информационной безопасности ENISA провести два исследования, посвященные безопасности «умного» общественного транспорта.

Это новый вклад компании в качестве участника международной некоммерческой инициативы Securing Smart Cities, направленной на решение проблем информационной безопасности современных городов.

Исследования включают в себя подробный разбор того, как устроена система «умного» городского транспорта, а также практические советы и рекомендации для компаний-перевозчиков по обеспечению ее кибербезопасности.

Хорошо развитая сеть общественного транспорта — один из основных элементов концепции «умного» города. Работа транспорта в таких городах полностью построена на информационных технологиях и, помимо всего прочего, зависит от энергетической и телекоммуникационной отраслей, а также системы общественной безопасности. Уязвимости в одном из звеньев этой цепи могут быть использованы для проникновения в критически важные системы и проведения мощных атак, способных нанести городу серьезный экономический и социальный ущерб. Вот почему при создании инфраструктуры «умного» городского транспорта крайне важно учитывать требования кибербезопасности.

«Для создания надежной и безопасной «умной» транспортной сети необходимо объединить усилия регуляторов, производителей программных и аппаратных решений, перевозчиков и компаний, работающих в сфере IT-безопасности. В этом направлении уже сделан важный шаг, и мы и рады возможности делиться своим опытом и знаниями с Европейским агентством по сетевой и информационной безопасности», — сказал Сергей Гордейчик, руководитель управления сервисов безопасности «Лаборатории Касперского».

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru