Около 150 тыс. сайтов на 1C-Bitrix остаются уязвимыми к атаке

Около 150 тыс. сайтов на 1C-Bitrix остаются уязвимыми к атаке

Около 150 тыс. сайтов на 1C-Bitrix остаются уязвимыми к атаке

Очередное сканирование рунета, проведенное CyberOK, выявило около 1 млн активных экземпляров 1C-Bitrix. Примерно 150 тыс. из них выказывают признаки наличия критической уязвимости, пропатченной вендором два года назад.

Речь идет о проблеме BDU:2023-05857, степень опасности которой была оценена в 10 баллов из 10 возможных по шкале CVSS. Уязвимость, привязанная к модулю Конструктора сайтов (landing), представляет собой состояние гонки, которое может возникнуть при работе с общими ресурсами.

Эксплойт проводится без взаимодействия с конечным пользователем, но может потребовать авторизации. Успешная атака позволит выполнять любые системные команды, захватить контроль над узлом 1C-Bitrix и даже проникнуть во внутреннюю сеть.

Уязвимости подвержены все версии landing до 23.800.0 включительно. Патч вышел в сентябре 2023 года в составе сборки 23.850.0; как оказалось, далеко не все удосужились его применить.

В «СайберОК» провели дополнительное исследование и выяснили, что после отключения или удаления landing на хосте могут остаться файлы, способные вызвать ложное срабатывание статического сканера:

  • /bitrix/components/bitrix/landing.site_edit/templates/.default/landing-forms.js
  • /components/bitrix/landing.site_edit/templates/.default/landing-forms.js
  • /bx/components/bitrix/landing.site_edit/templates/.default/landing-forms.js

На самом деле наличие таких следов необязательно означает, что landing уязвим либо активен. Верным признаком потенциальной уязвимости, по словам экспертов, является файл /bitrix/tools/landing/ajax.php и характерные запросы к нему.

Во избежание неприятностей «СайберОК» советует безотлагательно обновить модуль landing до версии 23.850.0 или выше. При отсутствии такой возможности следует принять меры для смягчения угрозы:

  • временно отключить landing и ограничить доступ к административным конечным точкам;
  • ограничить внешний доступ к /bitrix/admin/* и другим административным маршрутам;
  • поискать в логах следы параллельных запросов, необычных цепочек вызовов, неожиданных вызовов системных команд.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru