Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

На YouTube плодятся видеоматериалы, созданные на основе краденого контента с помощью ИИ. Автоматизированный плагиат позволяет мошенникам быстро получать доход с минимальными усилиями, а жертвы сплотились и пытаются дать отпор.

Автор видеоконтента F4mi борется с ИИ-ботами, ворующими расшифровки, вставляя в них большое количество скрытых мусорных данных, Подобное дополнение не мешает пользователям читать тексты, но способно обесценить творение умного помощника, обрабатывающего добычу скрейперов.

Разработанный F4mi метод полагается на использование формата ASS, созданного десятки лет назад для субтитров. Мусор вносится в расшифровки в пропорции 2:1, при этом используются фрагменты из открытых источников либо сгенерированные ИИ выдумки.

Возможности ASS позволяют задать нулевые значения размера и прозрачности вставок, то есть сделать их невидимыми. В результате обработки таких файлов ИИ-пособник мошенников выдает тексты, непригодные для использования.

Автор идеи признает, что более мощные инструменты вроде ChatGPT o1 смогут отфильтровать мусор и правильно воспроизвести оригинал. В этом случае придется еще помудрить над ASS-файлами, чтобы затруднить задачу и таким помощникам.

Поддержки ASS на YouTube не предусмотрено, там отдают предпочтение YTT, но можно использовать конвертер. В мобильной версии YouTube содержимое таких файлов будет отображаться некорректно — в виде черного окна поверх видео.

Изобретательному автору удалось обойти и это препятствие. Был написан Python-скрипт, который прячет мусорные вставки как черный текст на черном фоне. Единственная проблема, которая пока не решена, — это креш, возникающий на слишком тяжелых файлах.

К сожалению, придуманный F4mi трюк не помеха для таких инструментов, как Whisper разработки OpenAI, который сам делает расшифровку аудиозаписей, притом, по отзывам, вполне сносно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Вредонос PROMPTFLUX обращается к ИИ Gemini, чтобы менять свой код

Google сообщила о новой экспериментальной вредоносной программе, использующей искусственный интеллект для изменения собственного кода и сокрытия в целевой системе. Речь идет о PROMPTFLUX — вредоносном скрипте на VB Script, который взаимодействует с API Gemini, запрашивая у модели варианты обфускации и обхода антивирусных систем.

Как пояснили специалисты из Google Threat Intelligence Group (GTIG), PROMPTFLUX обращается к Gemini 1.5 Flash (и более поздним версиям), чтобы получать обновлённый код, способный обойти сигнатурное обнаружение.

Вредоносный скрипт использует встроенный API-ключ для отправки запросов напрямую к API Gemini и сохраняет новые версии в папке автозагрузки Windows.

Интересно, что внутри скрипта есть функция саморегенерации — AttemptToUpdateSelf. Хотя она закомментирована и неактивна, наличие логов взаимодействия с ИИ в файле thinking_robot_log.txt говорит о том, что авторы планируют создать «саморазвивающийся» вредоносный код.

 

Google отмечает, что существует несколько вариаций PROMPTFLUX, и в одной из них ИИ получает задачу полностью переписывать код скрипта каждый час. Однако на данный момент программа находится на стадии разработки и не способна заражать устройства. Судя по всему, за проектом стоит группа с финансовой мотивацией, а не государственные хакеры.

Некоторые эксперты, впрочем, считают, что история преувеличена. Исследователь Марк Хатчинс (Marcus Hutchins) заявил, что PROMPTFLUX не демонстрирует реальных признаков «умного» поведения:

«Модель Gemini не знает, как обходить антивирусы. Кроме того, код не имеет механизмов, гарантирующих уникальность или стабильность работы. А функция модификации кода даже не используется».

Тем не менее специалисты Google предупреждают, что злоумышленники активно экспериментируют с использованием ИИ не только для автоматизации задач, но и для создания вредоносных инструментов, которые способны адаптироваться «на лету».

Среди других примеров ИИ-вредоносов, обнаруженных Google, упоминаются:

  • FRUITSHELL — обратная оболочка на PowerShell, обученная обходить системы на основе LLM;
  • PROMPTLOCK — кросс-платформенный вымогатель на Go, использующий LLM для генерации вредоносных скриптов на Lua;
  • PROMPTSTEAL (LAMEHUG) — инструмент, применявшийся группировкой APT28 для атак на Украину;
  • QUIETVAULT — JavaScript-зловред, крадущий токены GitHub и NPM.
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru