За 3 месяца Роскомнадзор забанил 172 тыс. ресурсов с запрещенным контентом

За 3 месяца Роскомнадзор забанил 172 тыс. ресурсов с запрещенным контентом

За 3 месяца Роскомнадзор забанил 172 тыс. ресурсов с запрещенным контентом

В I квартале 2024 года в рунете с подачи Роскомнадзора было удалено либо заблокировано почти 172 тыс. веб-страниц с запрещенной законом информацией. Статистические данные в наглядном виде опубликованы в телеграм-канале регулятора.

В сравнении с таким же периодом 2023 года число выявленных ресурсов с пропагандой ЛГБТ возросло в 12 раз, с 1,3 тыс. до 15,4 тысячи. Количество блокировок содержимого экстремистского и террористического характера за год увеличилось почти на треть, с 10,5 тыс. до 13,5 тысячи.

Объемы остальной запрещенной информации за год сократились:

  • фейки о Вооруженных Силах РФ — в 3,5 раза;
  • детское порно — почти в 3 раза;
  • суицидальный контент — более чем в 2,5 раза;
  • пронаркотический контент — почти на треть.

 

Блокировкой регулятор также наказывает иностранных провайдеров, игнорирующих российские нормативы; для таких юрлиц создан и ведется отдельный реестр. На днях в бан попали хостеры GoDaddy и Amazon за нарушение закона о «приземлении» (представительство в России, форма обратной связи на сайтах, личный кабинет у РКН): сайт GoDaddy был полностью заблокирован 12 апреля, AWS — 15 апреля.

Евгений Литовка, технический директор НУБЕС (Nubes), прокомментировал результаты ведомства:

«Данная блокировка пока минимальным образом повлияет на пользователей платформы. Те, кто пользуются интерфейсами, достаточно квалифицированы, чтобы ее обойти с помощью тех же VPN-сервисов. Если же начнут блокировать подсети AWS, как было во времена блокировок Telegram, то какие-то сервисы окажутся непредсказуемо недоступны. Но думаем, что этот опыт уже как-то учтен и выводы сделаны».

Напомним, сайты, веб-страницы, приложения, распространяющие запрещенную законом информацию, Роскомнадзор вносит в Единый реестр запрещенных ресурсов. С марта этого года в него также могут попасть источники информации о методах обхода блокировок, действующих в рунете.

Ограничение доступа к таким ресурсам осуществляется на уровне провайдера — с помощью технических средств противодействия угрозам, ТСПУ. Решение о блокировке при этом может быть принято во внесудебном порядке — например, по требованию Генпрокуратуры.

В этом году Роскомнадзор планирует привлечь ИИ к пополнению черного списка ресурсов. Использование подобного помощника, как надеется регулятор, позволит ускорить процесс выявления правонарушений, повысить его эффективность и сократить издержки.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru