Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Через 5 лет ИИ будет сам находить и помечать фейки в интернете

Развитие технологий скоро приведет к тому, что ИИ будет сам искать и маркировать фейки в интернете. Горизонт планирования — 5-10 лет, предполагают эксперты. Сейчас исследователи работают над вычислением следов искусственного изменения контента и нейромаркетингом.

Перспективами обнаружения фейковых материалов с агентством ТАСС поделился руководитель рабочей группы Национальной технологической инициативы "Нейронет" Андрей Иващенко.

“Уже сейчас, — говорит эксперт, — есть большое количество технологий, автоматически распознающих различного рода "склейки" и монтаж в видеоматериалах”.

Текстовые анализаторы могут определить, написан ли текст одним человеком или разными людьми, что особенно востребовано при анализе комментариев в социальных сетях или отзывов на товары и услуги.

“Вполне вероятно, что через 5-10 лет мы будем заходить на сайт и сразу видеть отметки о фейковых материалах", — предполагает Иващенко.

Эксперт также считает, что сам интернет станет более адаптированным под потребности человека. Люди, например, смогут управлять операционной системой с помощью голосовых команд.

Разработчики "Нейронета" сейчас работают над развитием двух видов технологий, полезных для борьбы с фейками, рассказал Иващенко.

В первую категорию входят ИИ-системы, анализирующие текст, аудио, фото- и видеоизображения. Они позволяют вычислить следы искусственного изменения контента.

Второе направление — нейромаркетинг. В этом случае анализируются эмоциональные и поведенческие реакции человека с учетом биологической (невербальной) обратной связи — глазодвигательных, кожных реакций, температуры тела, ЭЭГ, ЭКГ, по которым можно определить истинные эмоции человека.

“Аналогичный принцип можно перенести на распознавание таких сигналов на видео. Например, следить за движением глаз, дыханием, положением тела", — объясняет эксперт.

Добавим, в конце февраля Роскомнадзор анонсировал запуск системы обнаружения информационных бомб “Вепрь”. Заработать она должна уже в этом году. Зимой запустили и другую систему со схожими целями. “Окулус” представляет собой автоматическую систему поиска запрещенного контента. Основная тематика поиска — экстремизм, наркотики, митинги, пропаганда ЛГБТ и военные фейки. К 2025 году “Окулус” обещают научить детально анализировать действия людей в интернете. “Вепрь” и “Окулус” должны войти в единую систему мониторинга информационного пространства.

43% использующих ИИ компаний ищут с его помощью уязвимости

Автоматизация рутины по-прежнему остаётся самым популярным сценарием использования ИИ в информационной безопасности. Но рынок постепенно идёт дальше. Как показал опрос «АМ Медиа», проведённый среди зрителей и участников эфира «Практика применения машинного обучения и ИИ в ИБ», почти половина компаний, уже использующих ИИ, применяют его для поиска уязвимостей и анализа защищённости.

Эфир стал продолжением предыдущей дискуссии о роли ИИ в кибербезопасности.

Если раньше речь шла в основном о теории и ожиданиях, то теперь эксперты обсуждали реальные кейсы: как выстроить пайплайн ИИ в ИБ, какие задачи он уже закрывает и какие решения действительно работают у заказчиков.

Судя по результатам опроса, 64% компаний используют ИИ для автоматизации повседневных задач. Но на этом применение не ограничивается. 43% респондентов задействуют его для поиска уязвимостей и усиления защиты. 32% — для классификации и описания инцидентов, что особенно актуально при текущем объёме событий.

Около четверти применяют ИИ для первичного триажа в SOC и автоматизированного реагирования по сценариям. А 14% доверяют ему даже поведенческий анализ в антифроде.

CEO SolidSoft Денис Гамаюнов считает такие цифры закономерными: по его словам, поиск уязвимостей — «вполне нативная задача» для больших языковых моделей. Однако он напомнил о рисках: компании должны чётко понимать, где проходит граница между использованием инструмента и возможной утечкой конфиденциальных данных внешнему провайдеру.

Заместитель генерального директора по инновациям «СёрчИнформ» Алексей Парфентьев также отметил, что результаты выглядят реалистично. По его мнению, к вероятностным алгоритмам в блокирующих средствах защиты пока относятся с осторожностью, а большинство кейсов использования ИИ в ИБ всё же связано с управленческими и вспомогательными задачами.

Более оптимистичную позицию озвучил руководитель группы развития платформы SOC Yandex Cloud Дмитрий Руссак. По его словам, команда с самого начала активно тестировала LLM, а отдельные идеи удалось масштабировать на всю инфраструктуру. В итоге ИИ используется не только для автоматизации, но и для разбора алертов, управления доступами и поиска уязвимостей.

В целом эксперты сошлись во мнении: современные модели всё ещё страдают от нехватки контекста и специализированных знаний. Поэтому внедрять ИИ нужно аккуратно — с пониманием, какие данные он получает, какие доступы имеет и где требуется обязательный человеческий контроль.

Тем не менее тренд очевиден: ИИ в ИБ перестаёт быть экспериментом и всё чаще становится рабочим инструментом — не только для автоматизации, но и для реального усиления защиты.

RSS: Новости на портале Anti-Malware.ru