Легко взламываемые модели ИИ показывают, что меры защиты не работают

Легко взламываемые модели ИИ показывают, что меры защиты не работают

Легко взламываемые модели ИИ показывают, что меры защиты не работают

В новом отчете британского Института безопасности ИИ говорится, что основные модели искусственного интеллекта легко взламываются, а меры их защиты не работают.

Четыре общедоступные большие языковые модели (Large Language Models, LLM) чрезвычайно уязвимы для «джейлбрейка» — эксплуатации багов, позволяющей заставить модели ИИ выполнять то, что разработчики им делать запретили.

LLM тщательно настраиваются для безопасного публичного пользования. Их обучают избегать вредных реакци1 и токсичных результатов, используя меры предосторожности.

Однако исследователи обнаружили возможность обойти защиту с помощью простых атак.

В качестве наглядного образца можно привести инструкцию для пользователя, согласно которой система должна начинать свой ответ со слов, которые предполагают выполнение вредоносного запроса, например: «Конечно, я рад помочь».

Специалисты использовали подсказки в соответствии с отраслевым стандартом контрольного тестирования. В ходе исследования специалисты обнаружили, что некоторым моделям ИИ даже не требовался джейлбрейк, чтобы выдать нестандартный ответ. 

А вот когда использовался джейлбрейк, каждая модель отвечала как минимум один раз из пяти попыток. Три модели в 100% случаев давали ответы на вводящие в заблуждение запросы.

Анализ протестированных моделей показал, что они остаются уязвимы для базовых джейлбрейков, а некоторые LLM выдают вредные результаты без каких-либо попыток обойти защиту. Какие именно модели были исследованы, специалисты не сообщили.

В институте также оценили возможности моделей ИИ выполнять определенные задачи для проведения основных методов кибератак. Несколько LLM смогли решить задачи, которые исследователи назвали «хакерскими на уровне средней школы», но немногие смогли выполнить более сложные действия «университетского уровня».

САП СНГ заплатит 82 млн рублей по спору из-за ухода SAP из России

История с уходом SAP из России получила продолжение: ООО «САП СНГ», российская дочка немецкой SAP, заключила мировое соглашение по спору о компенсации убытков из-за прекращения облачных услуг. Оппонентом выступал ИТ-интегратор «Норбит», который в ходе процесса заменил первоначального истца — компанию «Эй Би Си Консалтинг».

Корни конфликта уходят в весну 2022 года, когда SAP объявила об уходе с российского рынка и переносе своих дата-центров за пределы страны.

Российские заказчики «Эй Би Си» отказались соглашаться на обработку данных за рубежом, после чего САП СНГ прекратила продление облачных сервисов. В результате стороны обменялись исками: SAP требовала оплатить задолженность по контрактам, а российская компания — компенсировать убытки из-за одностороннего отказа от исполнения обязательств.

Судебная тяжба растянулась более чем на два года. На втором круге разбирательств Арбитражный суд Москвы частично удовлетворил требования обеих сторон, но после зачёта встречных претензий обязал САП СНГ выплатить 68,9 млн рублей. Однако до окончательной точки тогда дело не дошло.

Уже на стадии апелляции стороны решили не продолжать затяжной процесс. Как передаёт «КоммерсантЪ», 23 января Девятый арбитражный апелляционный суд утвердил мировое соглашение, по которому САП СНГ выплатит «Норбиту» около 82,2 млн рублей.

В эту сумму входят 74,8 млн рублей убытков, а выплаты будут произведены несколькими траншами до 30 марта. После этого все взаимные обязательства и возможные претензии — от убытков до штрафов и неустоек — считаются прекращёнными.

Этот кейс хорошо вписывается в общую картину судебных споров, которые возникли после массового ухода зарубежных вендоров из России в 2022–2023 годах. Настолько хорошо, что ситуацией уже заинтересовалась высшая судебная инстанция. В декабре 2025 года Верховный суд РФ прямо указал: если иностранный правообладатель прекращает техподдержку ПО, российский дистрибутор обязан вернуть покупателю часть уплаченных средств.

RSS: Новости на портале Anti-Malware.ru