Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

Яндекс Pay перестал работать у части пользователей IPv6

Пользователи начали замечать странное поведение приложения Яндекс Pay — оно может отказывать в работе тем, кто выходит в интернет через IPv6, особенно если используется 6in4-туннель (например, Hurricane Electric).

На проблему обратил внимание пользователь «Хабра» с ником po3dno. По его словам, это проявляется следующим образом: если открыть pay.yandex.ru в браузере, сервис работает нормально: определяется IPv4-адрес, и личный кабинет доступен без ограничений.

А вот в мобильном приложении ситуация другая. Оно, как утверждается, делает запросы по IPv6, определяет адрес как «не российский» — и на этом всё: доступ блокируется.

Получается парадоксальная ситуация: один и тот же пользователь с одного устройства может пользоваться сервисом через браузер, но не может через официальное приложение.

Судя по описанию, проблема связана именно с особенностями определения геолокации по IPv6. В случае с туннелями вроде 6in4 трафик может выходить через зарубежные точки, из-за чего сервис воспринимает пользователя как находящегося вне России.

Официальных комментариев от Яндекса на момент появления жалоб не было. Пока же для пользователей с IPv6 единственным рабочим вариантом остаётся доступ через браузер либо отключение туннеля.

Напомним, вчера мы писали, что у части российских пользователей с включёнными средствами обхода блокировок (VPN) перестали частично открываться или вовсе работать сайты и приложения крупных российских платформ, включая «Яндекс», VK, маркетплейсы и банковские сервисы.

RSS: Новости на портале Anti-Malware.ru