Google Chrome внезапно падает у пользователей Windows 10 — что делать

Google Chrome внезапно падает у пользователей Windows 10 — что делать

Google Chrome внезапно падает у пользователей Windows 10 — что делать

В определённый момент пользователи операционной системы Windows обнаружили, что браузер Google Chrome начал аварийно завершать работу. Фактически дошло до того, что интернет-обозреватель нельзя было нормально использовать, а о причинах приходилось только догадываться.

Напомним, что разработчики Google выпустили Chrome версии 90.0.4430.212 ровно две недели назад — 10 мая. Сразу после релиза от пользователей не поступало жалоб на вылет программы, однако всё поменялось буквально на днях.

Первым о проблеме сообщило издание Windows Latest: люди начали жаловаться на падение расширений для браузера и вкладок Google Chrome. Аварийное завершение работы происходило внезапно при обычном использовании интернет-обозревателя. Постепенно форум поддержки Chrome и Reddit наполнились обращениями раздосадованных пользователей.

«Около 15 минут назад совершенно неожиданно Google Chrome завершил работу. Все аддоны упали, а вкладки отказывались загружаться. Абсолютно пустой экран, а на вкладке значится "Untitled"», — пишет один из участников сообщества Reddit.

 

Некоторые даже сообщали о невозможности открыть настройки или страницу расширений, причём проблема затрагивала как обычный режим, так и «Инкогнито». Чуть позже исследователи и сами пользователи начали докапываться до сути проблемы.

Оказалось, что баг был связан с директорией %UserProfile%\AppData\Local\Google\Chrome\User Data, которая используется для хранения данных пользователя, расширений и настроек браузера.

В связи с этим разработчики Chrome посоветовали сделать резервную копию этой папки, а после выполнить одно из следующих действий:

  1. Убедиться, что синхронизация работает корректно. Для этого нужно посетить страницы https://chrome.google.com/sync и https://passwords.google.com.
  2. Закрыть все вкладки и окна Google Chrome.
  3. Открыть Проводник Windows и папку %LOCALAPPDATA%\Google\Chrome\User Data в нём.
  4. Удалить файл «Local State» (только при наличии бэкапа!).
  5. Открыть Chrome.

Второй способ требует переименования директории «User Data» (подойдёт любое другое имя).

Update:

Google выпустила обновление, устраняющее проблему вылета Chrome в операционных системах Windows и Linux. Все столкнувшиеся с багом пользователи могут установить апдейт.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru