DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники используют ИИ для подделки фото ДТП с целью получения страховки

Киберполиция Санкт-Петербурга и Ленобласти со ссылкой на данные Росгосстраха предупреждает о появлении в рунете мошеннических сервисов по ИИ-генерации фото разбитых машин для получения выплат по ОСАГО и КАСКО.

Российские страховщики предлагают автомобилистам самостоятельно фиксировать ущерб от ДТП и подавать такие данные через интернет. Следящие за повесткой дня злоумышленники не могли упустить лишний шанс для обогащения, хотя их расценки пока либеральны.

Киберкопы северной столицы опубликовали рекомендации по добросовестному сбору доказательств страхового случая:

  • снимать ДТП с разных позиций и при хорошем освещении;
  • фотографировать не только повреждения, но также окружение (дорожные знаки, позиции автомашин);
  • лучше сделать видео, его сложнее сфальсифицировать;
  • в отснятых материалах должны присутствовать время, место, ФИО свидетелей ДТП и номера авто, засветившихся на месте происшествия;
  • оригиналы фото- и видеосъемки следует сохранить, а копии пересылать лишь через сервис страховой компании, левые предложения в соцсетях для этого не годятся.

Страховым компаниям как потенциальным жертвам подлога советуют тщательно проверять метаданные фото, запрашивать съемку с разных ракурсов, использовать средства детектирования фейков и целостности присланных файлов, а также обучать клиентов правилам фиксации ДТП и подачи заявлений.

При появлении подозрений на обман следует запустить проверку с привлечением правоохранительных органов. Что касается мошеннических фейков, российские ученые уже более двух лет ратуют за маркировку контента, создаваемого с помощью ИИ.

Ограничить использование ИИ-технологий также призывают российские парламентарии — в связи с рисками, которые усилиями экспертов осознали не только в России, но и за рубежом. Тем не менее, международному сообществу пока не удалось добиться консенсуса по вопросам урегулирования ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru