Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

Автор роликов на YouTube борется с ИИ-плагиатом, подсовывая ботам мусор

На YouTube плодятся видеоматериалы, созданные на основе краденого контента с помощью ИИ. Автоматизированный плагиат позволяет мошенникам быстро получать доход с минимальными усилиями, а жертвы сплотились и пытаются дать отпор.

Автор видеоконтента F4mi борется с ИИ-ботами, ворующими расшифровки, вставляя в них большое количество скрытых мусорных данных, Подобное дополнение не мешает пользователям читать тексты, но способно обесценить творение умного помощника, обрабатывающего добычу скрейперов.

Разработанный F4mi метод полагается на использование формата ASS, созданного десятки лет назад для субтитров. Мусор вносится в расшифровки в пропорции 2:1, при этом используются фрагменты из открытых источников либо сгенерированные ИИ выдумки.

Возможности ASS позволяют задать нулевые значения размера и прозрачности вставок, то есть сделать их невидимыми. В результате обработки таких файлов ИИ-пособник мошенников выдает тексты, непригодные для использования.

Автор идеи признает, что более мощные инструменты вроде ChatGPT o1 смогут отфильтровать мусор и правильно воспроизвести оригинал. В этом случае придется еще помудрить над ASS-файлами, чтобы затруднить задачу и таким помощникам.

Поддержки ASS на YouTube не предусмотрено, там отдают предпочтение YTT, но можно использовать конвертер. В мобильной версии YouTube содержимое таких файлов будет отображаться некорректно — в виде черного окна поверх видео.

Изобретательному автору удалось обойти и это препятствие. Был написан Python-скрипт, который прячет мусорные вставки как черный текст на черном фоне. Единственная проблема, которая пока не решена, — это креш, возникающий на слишком тяжелых файлах.

К сожалению, придуманный F4mi трюк не помеха для таких инструментов, как Whisper разработки OpenAI, который сам делает расшифровку аудиозаписей, притом, по отзывам, вполне сносно.

43% использующих ИИ компаний ищут с его помощью уязвимости

Автоматизация рутины по-прежнему остаётся самым популярным сценарием использования ИИ в информационной безопасности. Но рынок постепенно идёт дальше. Как показал опрос «АМ Медиа», проведённый среди зрителей и участников эфира «Практика применения машинного обучения и ИИ в ИБ», почти половина компаний, уже использующих ИИ, применяют его для поиска уязвимостей и анализа защищённости.

Эфир стал продолжением предыдущей дискуссии о роли ИИ в кибербезопасности.

Если раньше речь шла в основном о теории и ожиданиях, то теперь эксперты обсуждали реальные кейсы: как выстроить пайплайн ИИ в ИБ, какие задачи он уже закрывает и какие решения действительно работают у заказчиков.

Судя по результатам опроса, 64% компаний используют ИИ для автоматизации повседневных задач. Но на этом применение не ограничивается. 43% респондентов задействуют его для поиска уязвимостей и усиления защиты. 32% — для классификации и описания инцидентов, что особенно актуально при текущем объёме событий.

Около четверти применяют ИИ для первичного триажа в SOC и автоматизированного реагирования по сценариям. А 14% доверяют ему даже поведенческий анализ в антифроде.

CEO SolidSoft Денис Гамаюнов считает такие цифры закономерными: по его словам, поиск уязвимостей — «вполне нативная задача» для больших языковых моделей. Однако он напомнил о рисках: компании должны чётко понимать, где проходит граница между использованием инструмента и возможной утечкой конфиденциальных данных внешнему провайдеру.

Заместитель генерального директора по инновациям «СёрчИнформ» Алексей Парфентьев также отметил, что результаты выглядят реалистично. По его мнению, к вероятностным алгоритмам в блокирующих средствах защиты пока относятся с осторожностью, а большинство кейсов использования ИИ в ИБ всё же связано с управленческими и вспомогательными задачами.

Более оптимистичную позицию озвучил руководитель группы развития платформы SOC Yandex Cloud Дмитрий Руссак. По его словам, команда с самого начала активно тестировала LLM, а отдельные идеи удалось масштабировать на всю инфраструктуру. В итоге ИИ используется не только для автоматизации, но и для разбора алертов, управления доступами и поиска уязвимостей.

В целом эксперты сошлись во мнении: современные модели всё ещё страдают от нехватки контекста и специализированных знаний. Поэтому внедрять ИИ нужно аккуратно — с пониманием, какие данные он получает, какие доступы имеет и где требуется обязательный человеческий контроль.

Тем не менее тренд очевиден: ИИ в ИБ перестаёт быть экспериментом и всё чаще становится рабочим инструментом — не только для автоматизации, но и для реального усиления защиты.

RSS: Новости на портале Anti-Malware.ru