DDoS-атака на 29,7 Тбит/с: ботнет Aisuru побил рекорд мощности

DDoS-атака на 29,7 Тбит/с: ботнет Aisuru побил рекорд мощности

DDoS-атака на 29,7 Тбит/с: ботнет Aisuru побил рекорд мощности

В мире DDoS-атак появился новый чемпион — и зовут его Aisuru. Этот ботнет за три месяца успел устроить более 1300 атак, причём одна из них побила прошлый рекорд, достигнув невероятной мощности в 29,7 Тбит/с. Настолько много «мусора» в Сети одновременно ещё никто не видел. Aisuru — это гигантский ботнет по подписке.

Он состоит из миллионов взломанных роутеров и IoT-устройств, подмятых либо через старые уязвимости, либо через традиционно «надёжные» пароли вроде admin/admin.

Cloudflare оценивает его масштаб в 1-4 миллиона заражённых устройств по всему миру. Самая мощная атака случилась в третьем квартале 2025 года.

Cloudflare её благополучно отбил — но отметили, что удар пришёлся с такой силой, что трафиком просто забивало инфраструктуру, причём иногда даже у тех провайдеров, которые вообще не были целью.

 

До этого Aisuru уже подозревали в атаках на 22,2 Тбит/с и на 15 Тбит/с — последнюю фиксировал Microsoft на Azure, причём трафик шёл с 500 тысяч IP-адресов.

Cloudflare говорит, что с начала года компания нивелировала уже 2867 атак, почти половина из которых — гиперволюметрические, то есть превышающие 1 Тбит/с или 1 млрд пакетов в секунду. В третьем квартале таких было аж 1304.

В самой рекордной атаке злоумышленники использовали «ковровый» UDP — технику, когда мусорный трафик равномерно рассылается сразу по тысячам портов. В этот раз ботнет бил в среднем по 15 000 портам каждую секунду. Атака длилась всего 69 секунд, но этого хватило, чтобы войти в историю.

Второй крупный удар, зафиксированный Cloudflare, достиг 14,1 млрд пакетов в секунду. И это только один эпизод.

Ситуация усугубляется тем, что большинство атак заканчиваются менее чем за 10 минут — защитным службам просто не хватает времени среагировать. Но вот последствия — чистка инфраструктуры, восстановление сервисов и проверка данных — могут тянуться часами.

В третьем квартале Cloudflare отражал в среднем 3780 DDoS-атак каждый час. Основные источники — Индонезия, Таиланд, Бангладеш и Эквадор. А вот цели чаще всего находились в Китае, Турции, Германии, Бразилии и США.

 

2025 год ещё не закончился, но уже видно, что он стал одним из самых агрессивных в плане DDoS-активности.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru