DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сенатор США обвинил Microsoft в уязвимом шифровании RC4

Американский сенатор Рон Уайден (демократ из Орегона) снова жёстко прошёлся по Microsoft — теперь он требует от Федеральной торговой комиссии (FTC) расследовать «грубую халатность» компании в вопросах кибербезопасности.

Поводом стал скандальный взлом медицинской сети Ascension в 2024 году, когда утекли данные 5,6 миллиона пациентов.

По словам (PDF) Уайдена, всё началось с заражённого ноутбука подрядчика, а дальше злоумышленники воспользовались уязвимостью в Active Directory и раскидали вредоносную программу по всей сети.

Главный виновник, по мнению сенатора, — устаревший алгоритм RC4, который Windows до сих пор использует по умолчанию для Kerberos-аутентификации. Эта технология давно считается небезопасной: её сломали ещё в 90-х, а вектор «kerberoasting», позволяющий брутфорсить пароли администраторов, известен с 2014 года.

«Microsoft своими опасными инженерными решениями сделала так, что один клик по вредоносной ссылке может привести к тотальному заражению всей организации», — заявил Уайден.

И добавил, что компания ведёт себя как «поджигатель, который потом продаёт услуги пожарных».

Эксперты напоминают: даже длинные пароли мало помогают, если используется RC4, ведь алгоритм не добавляет соль и использует слабый MD4. А современные видеокарты позволяют перебирать миллиарды комбинаций в секунду.

Microsoft в ответ заявила, что RC4 используется «менее чем в 0,1% случаев» и его полное отключение может «сломать клиентские системы». Компания пообещала постепенно отказаться от устаревшего шифра: начиная с Windows Server 2025 RC4 будет отключён по умолчанию в новых установках Active Directory.

Но сенатор настаивает: предупреждать клиентов о таких рисках в полубессмысленных блогах на «тёмных уголках сайта» — это не выход.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru