Samsung признала утечку данных ряда клиентов (второй раз за 2022 год)

Samsung признала утечку данных ряда клиентов (второй раз за 2022 год)

Samsung признала утечку данных ряда клиентов (второй раз за 2022 год)

Южнокорейский техногигант Samsung признал, что киберпреступники получили доступ к данным ряда клиентов. Таким образом, это уже второй киберинцидент в 2022 году, жертвой которого стали системы знаменитой корпорации.

«В конце июля 2022 года неавторизованные третьи лица получили доступ к информации, хранящейся в системах Samsung на территории США. 4 августа в ходе расследования мы выяснили, что были скомпрометированы персональные данные ряда клиентов», — пишет Samsung в официальном заявлении.

Техногигант также отметил, что среди затронутых данных были имена, контактная информация, сведения о проживании, даты рождения и детали регистрации продуктов корпорации.

Отдельно в корпорации подчеркнули, что киберинцидент не коснулся номеров социального страхования, а также информации о банковских картах. На данный момент Samsung не может точно сказать, какое число пользователей пострадало от рук киберпреступников.

Кроме того, непонятно, кто именно стоял за атакой и почему представителям Samsung потребовался почти месяц, чтобы публично рассказать об инциденте. Корпорация уведомила всех пользователей и заверила их, что специалисты приняли все необходимые меры, чтобы максимально защитить системы.

Помимо этого, затронутых клиентов предупредили о возможных атаках с использованием социальной инженерии, поскольку теперь в руках киберпреступников есть необходимые для этого данные.

Напомним, что в феврале стало известно о промахе южнокорейской корпорации: Samsung поставила 100 млн смартфонов с проблемным шифрованием данных.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru