Утечка 500 ГБ данных раскрыла работу Великого китайского файрвола

Утечка 500 ГБ данных раскрыла работу Великого китайского файрвола

Утечка 500 ГБ данных раскрыла работу Великого китайского файрвола

11 сентября 2025 года в Сеть попал крупнейший в истории архив внутренних документов о системе интернет-цензуры Китая — более 500 гигабайт информации о «Великом файрволе». Файлы содержат исходный код, рабочие журналы, переписку и документы, связанные с разработкой и эксплуатацией системы.

Самая крупная часть утечки — архив серверов сборки пакетов (около 500 ГБ). В числе материалов также есть документация, данные из JIRA и записи о проектах за несколько лет.

По данным исследователей, утечка связана с двумя организациями, которые играют ключевую роль в создании и поддержке GFW: компанией Geedge Networks и лабораторией MESA Lab при Институте информационной инженерии Академии наук Китая. Geedge возглавляет учёный Фан Бинсин — в Китае его называют «отцом Великого файрвола».

Документы показывают, что китайские технологии цензуры используются не только внутри страны, включая такие регионы как Синьцзян, Цзянсу и Фуцзянь, но и поставляются за рубеж — в Мьянму, Пакистан, Эфиопию, Казахстан и ряд других стран в рамках инициативы «Один пояс, один путь».

MESA Lab, основанная в 2012 году, за несколько лет выросла из небольшой команды в крупный проект с бюджетом более 35 млн юаней в год. Утекшие материалы содержат подробные логи разработки и инструкции, которые уже начали анализировать специалисты по кибербезопасности.

Эксперты отмечают, что объём данных огромен, и изучение может занять месяцы. Документы выкладываются на профильных платформах вроде GFW Report и Net4People. При этом исследователи советуют осторожность: скачивать утечки стоит только в изолированных виртуальных машинах без доступа в интернет.

Эта утечка даёт беспрецедентное понимание того, как работает китайская система интернет-контроля, и может повлиять не только на ИБ-сообщество, но и на международные отношения, учитывая экспорт таких технологий за пределы Китая.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru