Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveКак эффективно защититься от шифровальщиков? Расскажем на AM Live - переходите по ссылке, чтобы узнать подробности

В США братья попытались скрыть взлом госданных с помощью ИИ

Двое братьев из Вирджинии, уже однажды осуждённые за взлом систем Госдепа США, снова оказались в центре громкого скандала. На этот раз их обвиняют в попытке украсть и уничтожить данные трёх федеральных ведомств — и всё это буквально спустя несколько минут после увольнения.

Министерство юстиции США сообщило, что Муниб и Сохаиб Ахтер (обоим по 34 года) работали в компании, которая поставляет софт и услуги 45 госагентствам.

18 февраля, примерно в 16:55, братьям сообщили об увольнении. Через пять минут, согласно обвинению, они уже пытались получить доступ к системам работодателя и базам данных правительства.

Доступ к учётке одного из братьев успели заблокировать, но второй всё же зашёл в базу данных одного федерального органа и начал блокировать подключение других пользователей, после чего удалил 96 баз данных — среди них были материалы расследований и документы по запросам FOIA.

А дальше началась настоящая «комедия ошибок». Чтобы замести следы, злоумышленники обратились к ИИ. Спустя минуту после удаления данных Муниб якобы спросил у чат-бота: «как очистить системные логи SQL-серверов после удаления баз данных». Следом последовал запрос о том, как стереть журналы событий на Windows Server 2012.

Судя по материалам дела, советы ИИ братьям не помогли. Прокуроры утверждают, что следы удаления данных сохранились, а сами Ахтеры позже обсуждали, как убрать из дома возможные улики. Через три дня они стерли служебные ноутбуки, переустановив операционную систему.

Картина, если верить прокурорам, почти абсурдна: люди с такой биографией снова получили доступ к конфиденциальной информации, работодатель не отобрал ноутбуки и не заблокировал учётки немедленно, а один из братьев почему-то захотел стереть следы на Windows Server 2012 — системе, ремонт которой уже давно не поддерживается.

И, конечно, попытка замести следы с помощью ИИ в такой ситуации выглядит как претендент на антипремию «самый неумелый преступник года».

AM LiveКак эффективно защититься от шифровальщиков? Расскажем на AM Live - переходите по ссылке, чтобы узнать подробности

RSS: Новости на портале Anti-Malware.ru