DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

DarkMind: специалисты продемонстрировали манипулятивную атаку на LLM

Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Авторы исследования, Зен Го и Реза Турани, назвали свою разработку DarkMind. Техника базируется на уязвимостях парадигмы «цепочки рассуждений» (Chain-of-Thought, CoT), используемой в таких моделях, как ChatGPT, GPT-4, O1 и LLaMA-3.

DarkMind внедряет скрытые триггеры в приложения, работающие поверх языковых моделей, что делает атаку практически незаметной при обычном использовании. Выявить её сложно даже в приложениях, которых уже насчитывается сотни тысяч, так как она активируется только при срабатывании определенных шаблонов рассуждений.

При этом меры защиты, предназначенные для противодействия другим типам манипулятивных атак, не обнаруживают DarkMind, и вредоносная активность выявляется лишь после её активации.

Исследователи также установили, что чем совершеннее LLM, тем более они уязвимы к данной технике атак. Более того, для её применения не требуется модификация запросов или алгоритмов работы моделей, что делает технологию простой в использовании и потенциально массовой, особенно в таких секторах, как финансы и медицина, где LLM активно внедряются.

Зен Го и Реза Турани сообщили, что работают над защитными мерами, направленными на предотвращение подобных атак, и призвали разработчиков усилить встроенные механизмы защиты от манипулятивных воздействий на LLM. Однако, по мнению Microsoft, создать полностью безопасные системы на базе генеративного ИИ невозможно.

6 млн атак в день и ИИ-мошенники: итоги форума «АнтиФрод Россия»

11 декабря 2025 года в Москве прошёл ежегодный форум «АнтиФрод Россия» — одна из ключевых отраслевых площадок, где обсуждают борьбу с мошенничеством в цифровой среде. Мероприятие прошло при участии Совета Федерации, Госдумы, Банка России, Генпрокуратуры, Следственного комитета, МВД и Минцифры и собрало более 600 участников — от банков и финтеха до телекома, ретейла, промышленности и госсектора.

Главной темой форума стал человеческий фактор. Эксперты сошлись во мнении, что при всей развитости технических средств защиты именно социальная инженерия и психологическое давление сегодня остаются главным оружием мошенников.

Замглавы Минцифры Олег Качанов привёл показательные цифры: ежедневно фиксируется около шести миллионов попыток мошеннического воздействия, и примерно тысяча из них оказывается успешной. По его словам, на результат влияют самые разные факторы — от времени суток до эмоционального состояния человека.

 

Отдельный акцент участники дискуссий сделали на росте персонализации атак и использовании искусственного интеллекта для создания поддельного контента. Эти инструменты, по мнению экспертов, требуют принципиально новых подходов к защите как бизнеса, так и обычных пользователей.

Заместитель руководителя Главного управления криминалистики Следственного комитета Иван Стрельцов прямо назвал ИИ одной из главных угроз сегодняшнего дня: преступления всё чаще совершаются с использованием его возможностей.

Одним из самых заметных событий форума стало антипленарное заседание с участием российских знаменитостей. Его модерировала телеведущая Ольга Лисакова, а личные истории гостей наглядно показали, насколько изощрёнными стали мошеннические схемы.

Так, Родион Газманов рассказал, как купил билет в театр за 7 тысяч рублей на сайте, ссылку на который прислала новая знакомая. Билет так и не пришёл, а «служба поддержки» тут же попросила данные карты — сайт оказался поддельным.

 

Надежда Ручка призналась, что назвала код банковской карты «курьеру с цветами». От серьёзных потерь её спасла привычка держать на карте минимум средств — после покупок там оставалось всего 70 рублей.

Актриса Александра Черкасова стала жертвой сложной многоходовой схемы с подменой голоса известного режиссёра и сильным психологическим давлением. Мошенники, угрожая проблемами с законом и оперируя данными о её семье, убедили её перевести 1 млн рублей и оформить кредит ещё на 800 тысяч.

Лариса Вербицкая рассказала, что пошла на контакт с людьми, представившимися сотрудниками банка, услугами которого она давно пользовалась. Заподозрив неладное, она сама связалась с банком, счета были оперативно заблокированы, а ущерб удалось компенсировать.

Помимо дискуссий, на форуме работала выставочная зона, где участники обсуждали реальные кейсы внедрения антифрод-решений и возможные сценарии их развития.

 

В завершение мероприятия организаторы анонсировали открытие предварительной регистрации на форум «АнтиФрод Россия 2026», который запланирован на 10 декабря 2026 года.

RSS: Новости на портале Anti-Malware.ru