Вышло обновление Chrome 23.0.1271.97 с устранением критической уязвимости

Вышло обновление Chrome 23.0.1271.97 с устранением критической уязвимости

Компания Google представила корректирующий выпуск web-браузера Chrome 23.0.1271.97, в котором устранено 6 уязвимостей и представлена порция исправлений ошибок. Одной из уязвимостей присвоен статус критической проблемы, позволяющей обойти все уровни защиты браузера. Критическая проблема (CVE-2012-5142) выявлена сотрудниками Google и проявляется в выходе за границы буфера при выполнении операций по работе с историей посещений.

Три уязвимости отнесены к категории опасных проблем: две уязвимости вызваны обращением к области памяти после её освобождения и одна проблема связана с повреждением стека при декодировании специально оформленного контента в формате AAC. В рамках программы по выплате денежного вознаграждения за обнаружение уязвимостей для текущего релиза компания Google выплатила исследователям безопасности 4500 долларов (по одной премии, размером 2000$, 1500$ и 1000$).

Из не связанных с безопасностью проблем отмечается устранение ошибки с обрезанием краёв текста во всплывающем диалоге с настройками сайта. На платформе Linux устранены проблемы отображения текста в секциях input для некоторых web-приложений, что приводило к показу выделенного контента белым цветом на белом фоне. Решены проблемы с нарушением работоспособности некоторых плагинов. Устранены проблемы, специфичные для платформы Windows 8. В новой версии Chrome также произведелно обновление версии поставляемого в составе браузера плагина Adobe Flash, в котором проведена работа над ошибками, пишет opennet.ru.

Кроме того, можно отметить возникновение в понедельник интересного эффекта, который привёл к массовым крахам браузера Chrome при выполнении попытки синхронизации данных. Причиной проблемы стало изменение конфигурации балансировщика нагрузки, что привело к выходу из строя ряда компонентов инфраструктуры Google (например, наблюдалась неработоспособность Gmail). В качестве реакции система защиты от сбоев в процессе сеанса синхронизации задала в том числе и новые параметры квот для использования на стороне клиента. Подобные квоты выставляются в привязке к типу синхронизируемых данных, но в данном случае была выбрана опция использования квоты для всех типов сразу, что было некорректно разобрано браузером и привело к его краху.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru