Time-to-Exploit обвалился до 40 дней — ИИ ускоряет создание эксплойтов

Time-to-Exploit обвалился до 40 дней — ИИ ускоряет создание эксплойтов

Time-to-Exploit обвалился до 40 дней — ИИ ускоряет создание эксплойтов

Исследование BI.ZONE и Сбера показало тревожную тенденцию: злоумышленники эксплуатируют уязвимости всё быстрее, а компании не успевают на это реагировать. За последние пять лет время между публикацией уязвимости и её первым использованием — метрика Time-to-Exploit — сократилось в 20 раз.

По данным платформы X Threat Intelligence от Сбера, сегодня этот показатель составляет менее 40 дней, а более 60% уязвимостей атакуют уже в первые сутки или даже часы после их раскрытия.

Эксперты объясняют это автоматизацией разработки эксплойтов и использованием искусственного интеллекта, который позволяет киберпреступникам практически мгновенно создавать инструменты для атак.

«Чтобы не стать жертвой уже завтра, компаниям нужно сегодня выстраивать процессы управления уязвимостями и сокращать время их устранения», — отмечают специалисты BI.ZONE.

BI.ZONE CPT (платформа анализа внешней поверхности атак) выявила, что в 80% компаний, проверенных в 2025 году, нашли уязвимости, реально используемые в атаках. Это значит, что большинство организаций остаются потенциальными целями злоумышленников, особенно если не контролируют своё внешнее цифровое пространство.

Аналитика BI.ZONE GRC показывает, что до 15% инфраструктуры компаний не покрыты средствами защиты, и на каждом таком узле в среднем обнаруживается до 20 известных уязвимостей. Более того, 80% критических уязвимостей остаются неисправленными в установленные сроки.

Это создаёт идеальные условия для атак — достаточно одной «дыры», чтобы злоумышленники получили доступ к сети компании.

По данным BI.ZONE WAF, летом 2025 года доля критических веб-уязвимостей выросла почти на 10% по сравнению с зимой, а число публичных PoC-эксплойтов увеличилось более чем на 40%.

По словам Муслима Меджлумова, директора по продуктам и технологиям BI.ZONE, в ближайшие годы эксперты ожидают дальнейший рост числа уязвимостей, сокращение времени до их эксплуатации и увеличение доли атак нулевого дня.

«В таких условиях решающими становятся скорость реакции и адаптивность инфраструктуры. Мы рекомендуем использовать современные средства защиты — например, WAF и CPT, — а также внедрять решения, способные прогнозировать риски до появления эксплойтов», — пояснил Меджлумов.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru