В России хотят создать единую систему видеоконтроля поведения горожан

В России хотят создать единую систему видеоконтроля поведения горожан

В России хотят создать единую систему видеоконтроля поведения горожан

В правительстве РФ обсуждается возможность создания ГИС «Национальная платформа видеонаблюдения», которая объединит все системы сбора и анализа видео, работающие в городах страны. Проект предполагает повсеместную установку умных камер, способных самостоятельно распознавать и фиксировать инциденты, и предположительно обойдется государству в 250 млрд рублей.

Как выяснил «Ъ», разработку новой информационной системы могут доверить ООО «Национальные технологии» — совместному предприятию «Ростеха» и «Ростелекома». С реализацией проекта они, по прикидкам, должны уложиться в пятилетку.

Инициатива по созданию общей платформы для российских систем видеонаблюдения выдвинута в рамках федеральной программы «Безопасный город» (PDF). Авторы нового проекта предлагают распространить столичный опыт автоматизированного контроля на основе АПК (программно-аппаратного комплекса технических средств) в масштабах всей страны, но с другим подходом.

В настоящее время работающие в Москве системы видеонаблюдения отправляют данные в ЦОД непрерывным потоком, и разбор этой информации целиком производится там. Подобная технология требует большого количества ЦОД, которое можно сократить, если вынести первичный анализ на камеры, то есть оснастить их модулями обработки данных.

Опрошенные «Ъ» специалисты отметили, что техническая возможность для перехода к анализу на видеокамерах в стране существует. Такие устройства со встроенной аналитикой на основе нейросети и хранилищем записей уже активно используются в розничной торговле и промышленности.

Тем не менее, умные камеры видеонаблюдения намного дороже обычных (в два-шесть раз), и их придется ставить экономно — только в тех точках города, где нужно быстро фиксировать инциденты и распознавать лица. В остальных местах можно будет ограничиться более дешевым вариантом, с датчиком движения.

Эксперты также не преминули отметить ИБ-риски, сопряженные с модернизацией городских систем видеонаблюдения. В случае утечки данных в результате взлома или подкупа инсайдера злоумышленник получит возможность отследить перемещение намеченной жертвы по городу и проанализировать все совершаемые ею действия.

Источником финансирования нового проекта, по данным «Ъ», может стать ВЭБ.РФ, который выделит каждому субъекту федерации до 3 млрд рублей на закупку решений для обновления АПК.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru