Поисковый бот ChatGPT может DDoS'ить сайты, нужен лишь один HTTP-запрос

Поисковый бот ChatGPT может DDoS'ить сайты, нужен лишь один HTTP-запрос

Поисковый бот ChatGPT может DDoS'ить сайты, нужен лишь один HTTP-запрос

Поведением поискового бота ChatGPT можно манипулировать с помощью выявленной уязвимости: при определённых запросах веб-краулер OpenAI будет фактически проводить DDoS-атаки на произвольные сайты.

Об интересной бреши сообщил исследователь в области кибербезопасности Бенджамин Флеш. По его словам, всего один HTTP-запрос к API ChatGPT может спровоцировать флуд определённого веб-ресурса нескончаемыми сетевыми запросами.

На деле может оказаться, что мощности таких DDoS-атак не хватит для вывода из строя хорошо защищённых сайтов, однако эксперт всё равно считает это недоработкой OpenAI.

Например, веб-краулер ChatGPT может каждую секунду добавлять к одному API-запросу от 20 до 5000 или даже больше таких же запросов к выбранному веб-сайту.

«API ChatGPT содержит серьёзный изъян при обработке запросов HTTP POST к https://chatgpt.com/backend-api/attributions. Если вы скормите API большой список URL, каждый из которых будет совсем незначительно отличаться, но при этом вести на один ресурс, веб-краулер будет стучаться параллельно по всем этим ссылкам», — объясняет Флеш.

К сожалению, поисковой бот не проверяет повторяющиеся ссылки на один и тот же сайт, а также не ограничивает максимальное число гиперссылок в параметре URL.

В случае эксплуатации этого недостатка владелец веб-сайта будет видеть лишь подключение веб-краулера ChatGPT с 20 разных IP-адресов. Даже при блокировке этих адресов файрволом бот ChatGPT всё равно продолжит отправлять запросы.

ИИ находит ошибки быстрее, чем их могут исправлять

Многие команды разработчиков опенсорс-проектов столкнулись с потоком сообщений об ошибках и уязвимостях, которые выявляют ИИ-модели. Для многих проектов, особенно небольших, это стало серьёзной проблемой: устранять такие находки по мере их поступления они попросту не успевают. В результате ситуация начинает нести заметные риски для безопасности.

О проблеме сообщило агентство Bloomberg. Издание приводит слова Дэниела Стенберга из проекта cURL: только за 2025 год команда получила 181 сообщение об ошибках и уязвимостях — больше, чем за 2023 и 2024 годы вместе взятые.

По словам специалиста, рост числа багрепортов напрямую связан с распространением ИИ-моделей. Как отметил Стенберг, ситуация продолжает ухудшаться. С начала 2026 года команда проекта уже получила 87 сообщений об ошибках, а по итогам года их число может приблизиться к 330.

Рост активности связывают с появлением новой ИИ-модели Mythos от Anthropic. Она позволяет находить проблемный код быстрее, чем предыдущие поколения таких систем, не говоря уже о людях, которые проводят аудит вручную или с помощью традиционных инструментов.

Многие другие проекты, столкнувшись с валом отчётов об ошибках, сгенерированных с помощью ИИ, вообще прекратили их приём. Разработчики сравнивают этот поток с DDoS-атакой, называя его «пугающим» и крайне сложным для обработки.

Понимая возможные риски, связанные с тем, что новая модель сможет находить уязвимости быстрее, чем разработчики будут успевать их устранять, Anthropic не стала выпускать Mythos в открытый доступ. Вместо этого компания ограничила доступ к ней, предоставив его только ключевым организациям, включая CrowdStrike и Linux Foundation.

Как подчёркивает Bloomberg, вся индустрия во многом зависит от результатов работы проектов с открытым исходным кодом, которыми нередко занимаются небольшие команды с ограниченными ресурсами. Ситуацию дополнительно осложняет наличие большого объёма устаревшего кода, который может быть использован во вредоносных целях.

Показательный пример — история с WannaCry: авторы этого шифровальщика использовали устаревший драйвер Windows для распространения зловреда. При этом удалить такой компонент не всегда возможно без риска нарушить работу критически важных функций системы.

RSS: Новости на портале Anti-Malware.ru