Студии пиратской озвучки заработали в 2023 году более 61 миллиона рублей

Студии пиратской озвучки заработали в 2023 году более 61 миллиона рублей

Студии пиратской озвучки заработали в 2023 году более 61 миллиона рублей

Нелегальные студии пиратской озвучки, действовавшие на протяжении всего 2023 года, заработали как минимум 61,6 миллиона рублей. Такую статистику привели специалисты компании F.A.C.C.T.

В отчёте исследователей упоминается падение рынка пиратства в Сети: в прошлом году он снизился до 38 млн долларов (на 16%). Параллельно, учитывая глобальные тенденции, в России растёт спрос на неофициальное озвучивание.

Именно этим наших граждан обеспечивали целые 50 студий, занимающихся переводом и озвучиванием зарубежных кинокартин.

 

В департаменте Digital Risk Protection компании F.A.C.C.T. отметили четыре основных способа заработка на «альтернативной» озвучке недоступных в России фильмов:

  1. Подписки спонсоров. Это самая большая статья доходов студий озвучки — приносит 41,9% от общей суммы заработка.
  2. Реклама в звуковых дорожках или сборы на озвучку. Этот пункт занимает второе место и приносит 23,4% от общего дохода. К слову, реклама может быть не только в аудиоформате: иногда студии вставляют логотипы и баннеры в видео, а порой показ вообще могут прервать сторонним видеофрагментом.
  3. Реклама на собственных сайтах — 20,5%. Но стоит оговориться, что собственном ресурсом располагают около 62% «переводчиков».
  4. Пожертвования. Донаты занимают 14,2% от общего пирога.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru