Сбой в работе RuTube вызван DDoS-атакой

Сбой в работе RuTube вызван DDoS-атакой

Сбой в работе RuTube вызван DDoS-атакой

Вечером 6 сентября российский видеохостинг RuTube столкнулся с масштабным сбоем. По официальному сообщению, проблемы были вызваны DDoS-атакой.

Пик жалоб пользователей на сбой в RuTube пришелся на 20:55 по московскому времени. У многих даже не загружалась стартовая страница.

Основная масса репортов, по данным Сбой.РФ, пришлась на Москву (29%), Санкт-Петербург (9%), Московскую область (5%), Краснодарский край (5%) и Ростовскую область (9%).

Администрация RuTube уже в 21:15 выпустила следующее сообщение:

«RuTube столкнулся с крупнейшей DDoS-атакой за последние два года. В данный момент наши специалисты прикладывают все усилия для ликвидации этой угрозы, что может привести к временным сбоям в работе видеохостинга».

Спустя два часа там же появилось сообщение о полном восстановлении работоспособности.

Вместе с тем количество жалоб на проблемы с RuTube оставалось высоким все выходные и понедельник. В основном они касались многочисленных ошибок при загрузке и воспроизведении видео.

«Пациент еще болен. Приходится перезагружать страницу после каждых 3-5 минут просмотра», — такой комментарий был размещен на Сбой.РФ вечером 7 сентября.

В текущем году отмечен рекордный рост DDoS-атак. В июле массированной атаке длительностью 13 часов подвергся Сбер.

Ряд пользователей Downradar связал проблемы RuTube со значительным ростом пользовательской базы:

«Не работает поиск, висит бедолага. Сейчас либо атака, либо сервера не справляются с пятничным наплывом. На любой запрос ничего не может найти».

Согласно официальным данным RuTube, аудитория видеохостинга за месяц удвоилась.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru