DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

В Сети появился скрипт, вырезающий Copilot и ИИ из Windows 11

Навязчивое продвижение ИИ в Windows и экосистеме Microsoft начинает раздражать всё больше пользователей. Copilot уже успел засветиться даже в заметках Apple App Store и добраться до телевизоров LG. Для части пользователей Windows 11 это стало перебором — и они всё чаще говорят о желании вернуть полный контроль над тем, что именно работает на их компьютерах.

На этом фоне в сообществе появился любопытный инструмент. Пользователь GitHub под ником zoicware выложил скрипт RemoveWindowsAI, который предназначен для радикального отключения ИИ-функций в Windows 11 на системном уровне.

В отличие от стандартных переключателей и скрытых настроек, скрипт действует жёстко. Он отключает связанные с ИИ ключи реестра, удаляет соответствующие файлы из системы и блокирует повторное появление компонентов при будущих обновлениях Windows. По сути, это попытка «вычистить» ИИ из ОС, а не просто спрятать его с глаз.

Список функций, которые затрагивает скрипт, довольно внушительный. В него входят Copilot, Recall, сбор данных о вводе и поведении при наборе текста, Copilot в Edge, Image Creator и другие ИИ-инструменты в Paint, AI Fabric Service, AI Actions, ИИ-поиск в настройках Windows, Voice Access с голосовыми эффектами и ряд других недавних нововведений Microsoft. Для тех, кто хочет более «классическую» Windows без ИИ-надстроек, этого набора более чем достаточно.

При этом скрипт отключает не всё. Например, Gaming Copilot и ИИ-функции OneDrive остаются нетронутыми — вероятно, из-за более глубокой интеграции или других механизмов доставки.

Авторы и пользователи инструмента сразу предупреждают о рисках. Работа с реестром и удаление системных компонентов могут привести к нестабильной работе системы, проблемам с обновлениями и непредсказуемым последствиям. Скрипт явно рассчитан на опытных пользователей, которые понимают, на что идут, и готовы брать ответственность на себя.

Тем не менее популярность RemoveWindowsAI хорошо отражает общее настроение: многие пользователи хотят выбора, а не принудительного внедрения ИИ. И по мере того как Microsoft всё активнее встраивает ИИ в свои продукты, сопротивление со стороны продвинутых пользователей, похоже, будет только усиливаться.

RSS: Новости на портале Anti-Malware.ru