Искусственный интеллект и кибербезопасность: интервью с BI.ZONE на OFFZONE 2025

Александр Балабанов, BI.ZONE: ИИ должен ускорять работу, а не заменять человека

Александр Балабанов, BI.ZONE: ИИ должен ускорять работу, а не заменять человека

Александр Балабанов

Руководитель центра искусственного интеллекта и перспективных технологий BI.ZONE

Закончил Кубанский государственный технологический университет по специальности «комплексная защита объектов информатизации».

Начал карьеру в сфере кибербезопасности в 2011 году, став инженером-проектировщиком в интеграторе.

С 2013 по 2023 год работал в ГК «Ростелеком», где прошёл путь от специалиста по кибербезопасности до архитектора SOC. Александр принимал участие в защите технической инфраструктуры ГК «Ростелеком», а также в обеспечении кибербезопасности крупных национальных проектов: Олимпийских игр 2014 года, инфраструктуры электронного правительства и других.

В BI.ZONE возглавляет центр искусственного интеллекта и перспективных технологий. Его команда внедряет AI / ML в продукты и услуги BI.ZONE, занимается автоматизацией и разрабатывает внутренние решения для развития SOC.

...

В рамках конференции OFFZONE 2025 редакция Anti-Malware.ru обсудила с Александром Балабановым, руководителем центра искусственного интеллекта и перспективных технологий BI.ZONE, как искусственный интеллект и машинное обучение меняют кибербезопасность и бизнес-процессы, ускоряя проверку гипотез и автоматизацию рутинных задач. Александр рассказал о ключевой роли данных, инициативных сотрудников как амбассадоров ИИ, которые помогают внедрять технологии внутри компаний. Также мы затронули темы рисков и необходимости сохранять критическое мышление при масштабном использовании ИИ.

На конференции мне особенно запомнился ИИ-трек. Думаю, это было знаковое событие. В прошлом году что-то подобное уже было, но в этот раз, на мой взгляд, появилось больше конкретики и действительно интересного контента. Откуда возникла идея выделить отдельный трек по искусственному интеллекту? И почему вы считаете, что в контексте кибербезопасности это важно?

А.Б.: История началась в конце 2023 года, когда я пришёл в BI.ZONE и занялся внедрением AI в SOC. Уже тогда у меня появилась возможность присоединиться к OFFZONE, конференции, которая мне всегда нравилась. Но отдельного трека, посвященного AI и его применению в кибербезопасности, не существовало. Хотя уже в то время было понятно, что без AI современная кибербезопасность немыслима. Объёмы угроз и данных непрерывно растут, и человеку в одиночку сложно с этим будет справиться. Поэтому в начале 2024 года, когда стартовала подготовка к конференции, я предложил организаторам конференции создать отдельный трек по AI, где исследователи и эксперты из разных компаний смогли бы делиться своим практическим опытом. Идею поддержали, и мы начали подготовку.

В 2024 году впервые прошёл AI-трек — AI.Zone. Мы собрали программу докладов и провели дополнительную викторину. В этом году продолжение было очевидным: AI.Zone оказалась востребованной, так как в зале была полная посадка на протяжении всего дня. Она предоставляет экспертам площадку для обмена опытом. Мы подготовили записи докладов, чтобы их могли посмотреть коллеги из других компаний и применять в своей работе.

Я обратил внимание, что в предыдущие годы, когда речь заходила об искусственном интеллекте в кибербезопасности, разговор часто уходил в теорию. В этом году ситуация изменилась: было много практических докладов, в том числе от компании BI.ZONE. Вы рассказывали, как элементы искусственного интеллекта применяются в центрах мониторинга (SOC). Если говорить о реальной практике, то где искусственный интеллект уже сегодня дает наибольший эффект? В каких направлениях его применение наиболее заметно?

А.Б.: Кибербезопасность — очень широкая область со множеством направлений. Мы в BI.ZONE в каждом из них, от SOC до пентеста, анализируем существующие процессы и ищем узкие места, где классическая автоматизация уже не справляется. Именно в таких понятных и отлаженных задачах ИИ даёт максимальный измеримый эффект.

Например, в нашем докладе мы рассказывали, как AI упрощает будни аналитика в коммерческом SOC. Одна из рутинных задач — обработка большого объёма обратной связи от клиентов при взаимодействии по зарегистрированным подозрениям на инциденты. Обратная связь у нас — это комментарии к инцидентам в личном кабинете BI.ZONE TDR. Мы внедрили AI для анализа этих комментариев и дальнейшей маршрутизации: закрыть инцидент, создать исключение, привлечь на помощь аналитика и т. д. 

В результате мы автоматически закрываем около 45% от дневного объёма таких инцидентов с обратной связью, где не требуется дополнительных действий от нашего SOC. Это позволяет нашим аналитикам не отвлекаться на рутину, а заниматься более сложными задачами, где AI пока сложно применим.

Поскольку люди часто всё смешивают, давайте попробуем систематизировать. Существуют нейросети и классическое машинное обучение, для которых тоже найдётся множество задач. Есть большие языковые модели (LLM), и, как показали доклады, они действительно могут сильно помогать. Кроме того, есть генеративный искусственный интеллект, о котором вы упоминали. Все эти направления немного различаются, и интересно рассмотреть, как каждое из них может применяться в кибербезопасности.

А.Б.: Хорошо, давайте попробуем систематизировать.

Классическое машинное обучение (ML). Эти алгоритмы справляются с анализом огромных объёмов структурированных данных, чтобы найти закономерности, корреляции или аномалии. Например, проанализировать миллионы обработанных SOC-алертов и потом автоматически классифицировать и закрывать тысячи похожих, чтобы аналитик SOC видел только действительно важные.

Генеративный ИИ (GenAI) и большие языковые модели (LLM). Это технологии, которые работают с неструктурированными данными: человеческий язык, код, изображения. Их ключевая особенность — понимание контекста и генерация нового контента. Они берут на себя разные задачи: суммаризацию, объяснение, чат, генерацию кода, классификацию и выделение сущностей и т. д. Например, моментальное объяснение аналитику SOC сложной командной строки в алерте или подготовка короткой, но ёмкой справки для руководства об инциденте на основе технических данных.

Важно понимать, что ML и GenAI не конкурируют, а дополняют друг друга, решая разные задачи.

Сейчас на рынке много разговоров про концепцию «второго пилота» (copilot) — интеллектуального помощника, способного поддерживать принятие высокоуровневых решений в кибербезопасности. Это уже работает или пока остаётся скорее перспективой? 

А.Б.: Первые шаги в этом направлении уже видны, но я бы сказал, что сейчас мы ближе к концепции, которую у себя называем «контролируемой автономностью». Это означает, что ИИ не принимает стратегических решений сам, а действует как исполнитель в рамках, заданных человеком. Вспомните наш пример с SOC. Мы не говорим ИИ: «Разберись с обратной связью». Мы разработали процесс: сначала проанализируй комментарий и, в зависимости от его сути, закрой инцидент, создай исключение или позови аналитика SOC. ИИ работает автономно 24 / 7, но только внутри этого заданного коридора.

Настоящий «второй пилот» — это неизбежно следующий шаг, но той самой кнопки «сделай всё хорошо», не требующей участия человека, пока нет. Это та цель, к которой двигается индустрия, и мы закладываем фундамент для неё уже сегодня.

Мне кажется, у многих перед глазами стоит картинка из фантастического фильма: искусственный интеллект приятным голосом сообщает, что, по его оценке, нас атакует определённая группировка, описывает происходящее и предлагает конкретные действия — заблокировать атаку или выполнить другие меры реагирования. Остаётся лишь подтвердить командой «действуй» или «не действуй».

А.Б.: На самом деле эта картинка из фантастического фильма гораздо ближе к реальности, чем кажется. Это именно то, к чему стремится вся отрасль, и с появлением так называемого Agentic AI мы делаем к этому большие шаги.

Уже сейчас появляются решения, где при возникновении инцидента ИИ-агент берёт его в работу. Проводит анализ угрозы, обогащает данными из разных источников и формирует план реагирования, исходя из доступных инструментов, например:

  • заблокировать IP-адрес атакующего; 
  • изолировать компьютер от сети;
  • собрать артефакты на компьютере.

И вот здесь появляется та самая кнопка «действуй». Человек-аналитик видит этот план и выступает, по сути, в роли оператора, который должен принять финальное решение.

Почему же всегда не нажимать её автоматически? Причина проста: цена ошибки слишком высока. Автоматическая блокировка может случайно остановить критический бизнес-процесс. Кроме того, результат работы ИИ-агентов не всегда однозначен и поддаётся интерпретации, а в кибербезопасности такая неопределённость при принятии критических решений недопустима. Поэтому человек всё ещё остаётся последним рубежом контроля.

Если смотреть на перспективу одного-двух лет, возникает вопрос: что мы будем обсуждать на следующем OFFZONE в рамках ИИ-зоны? Какие технологии и подходы должны уже сформироваться к этому времени? Изменения происходят очень быстро, мы часто недооцениваем эту скорость. Нам кажется, что прогресс ещё далёк, а потом внезапно технологии уже оказываются здесь.

А.Б.: Сложно точно спрогнозировать, что будет через год, так как сфера развивается очень динамично.

Мне кажется, в следующем году появится больше практических примеров применения мультиагентных систем, о которых сейчас много говорят. 

Мы увидим движение от одиночных ассистентов к их командной работе. Будет интересно зафиксировать реальный опыт внедрения подобных технологий в продукты кибербезопасности. Кроме того, будем продолжать говорить про использование ИИ для имитации атак, развитие copilot-систем, которые помогают специалистам, а также про безопасность самих AI-систем.

Но не исключено, что на следующем OFFZONE мы увидим обсуждение новых технологий или подходов, которые станут главным трендом в 2026 году.

Рассмотрим обратную сторону медали. Какие вызовы и угрозы вы видите при внедрении этих технологий — и автоматизации, и повышения эффективности за счёт искусственного интеллекта? Очевидно, такие риски существуют, и их необходимо учитывать.

А.Б.: Да, такие риски есть. Например, проблема чёрного ящика, связанная с возможностью интерпретаций результатов. Мы не всегда можем до конца понять, почему современные большие языковые модели, в отличие от классического машинного обучения, приняли то или иное решение. И это критически важно, ведь цена ошибки в нашей области может быть высокой: пропущенная атака либо, наоборот, ложная блокировка. AI- / ML-командам приходится экспериментировать с различными техниками и подходами, чтобы в конкретном процессе можно было доверять искусственному интеллекту.

Другой риск — превращение самого ИИ в новую цель для злоумышленников. Внедряя его, компании расширяют свою поверхность атаки. Злоумышленники всегда ищут самое слабое звено, и важно, чтобы им не оказалась AI-система. Поэтому AI- / ML-команды уделяют внимание безопасности самого ИИ.

А не возникает ли здесь риск того, что при массовом внедрении всех этих технологий специалисты по безопасности, работающие на стороне заказчика, перестанут самостоятельно анализировать ситуацию или утратят некоторые базовые навыки? 

А.Б.: Да, такой риск действительно существует, и он касается не только кибербезопасности. Но я смотрю на него не как на угрозу утраты навыков, а как на их эволюцию.

Например, современные программисты не стали менее компетентными, перейдя на более высокоуровневые языки вроде Python. Они просто больше сфокусировались на архитектуре или бизнес-логике вместо низкоуровневой рутины и могут получать конечный результат быстрее. Точно так же и в кибербезопасности: вместо ручного разбора тысячи алертов специалист сможет сосредоточиться на поиске угроз и проверке гипотез, которые не под силу автоматике.

Здесь важен баланс: использование искусственного интеллекта должно повышать эффективность, сокращать рутинные низкоуровневые задачи и освобождать время для более сложных и креативных решений.

При этом очень важно не уходить в крайность, где специалист полагается только на ИИ, а практика и критическое мышление теряются. ИИ должен ускорять работу, позволяя специалисту делать больше, а не заменять его полностью.

В этом контексте я хотел спросить о практике реальных проектов. Недавно появилось несколько отчётов, где указывалось, что большая часть проектов по оптимизации бизнес-процессов, включая кибербезопасность, достигает значительных результатов: показатели эффективности превышают 90%.

А.Б.: Результат очень сильно зависит от того, что именно мы измеряем. Если речь идёт о стартапе, который с нуля строит процесс на базе ИИ, или об очень простом процессе, где раньше требовалось десять кликов, а теперь один, то высокие проценты вполне достижимы.

Если мы говорим о большой организации со зрелыми бизнес-процессами, могу прокомментировать на примере нашего опыта. Мы не пытаемся оптимизировать всё подряд, а ищем конкретные процессы, где ИИ даст максимальный эффект. Активно используем главное преимущество внедрения ИИ — высокую скорость прототипирования при низком пороге входа. Это даёт возможность очень быстро проверить гипотезу и при необходимости выйти на MVP (Minimum Viable Product — минимально жизнеспособный продукт, версия с небольшой функциональностью, достаточной для привлечения первых клиентов). По сути, у нас внутри компании выстроен конвейер, который позволяет быстро проверять гипотезы и принимать решение о внедрении в продукт буквально за пару дней.

Например, мы увидели, что аналитики SOC тратят много времени на рутинную обработку комментариев от клиентов. Мы быстро проверили гипотезу и убедились в её жизнеспособности, далее довели это до продуктива и получили автоматизацию процесса почти на 45%. Это реальный измеримый результат. Возможно, это не 90%, которые красиво смотрятся в отчётах, но это огромная практическая выгода, позволяющая нашим аналитикам SOC заниматься более сложными задачами. Мы верим именно в такой подход — в поиск реальной ценности, а не в погоню за абстрактными метриками.

Исследование Массачусетского технологического института (MIT) показывает, что внедрение искусственного интеллекта в частных компаниях оказывается успешным только в 5% случаев, а в 95% — неудачным. Основной причиной таких неудач называют не технологии, а так называемый learning gap — когда сотрудники, участвующие в бизнес-процессах, не готовы к внедрению инноваций. В кибербезопасности мы уже наблюдаем аналогичную ситуацию. Сейчас важно понять, как с этим бороться, так как это один из основных факторов, замедляющих внедрение новых технологий. 

А.Б.: Я думаю, всё зависит от подхода к внедрению инноваций. Learning gap (пробел в знаниях) часто возникает, если спускать и навязывать новый инструмент сверху.

Мы, например, действуем по-другому. Мы приходим к нашим специалистам с вопросом: «Какая самая рутинная часть вашей работы? Давайте автоматизируем именно её». Когда люди становятся соавторами решения собственной проблемы, сопротивление сменяется интересом. Никто не будет сопротивляться инструменту, который решает его личную головную боль.

И конечно, очень важны популяризация и обучение. Нужно показывать пользу на реальных примерах и учить пользоваться новым инструментом. Мы, например, регулярно стараемся рассказывать на внутренних митапах о том, какую пользу приносим, внедряя AI / ML, делимся полезными материалами. И это даёт потрясающий эффект: такой подход не только снижает learning gap, но и помогает формировать более качественные и осмысленные запросы к нашей команде в будущем.

Вопрос в том, где взять датасет. В другом интервью мы обсуждали это с Алексеем Лукацким, где он отметил, что всё упирается именно в данные. Без датасета для машинного обучения невозможно продвинуться дальше. Если данные есть, их можно использовать для обучения моделей; если данных нет — процесс просто не стартует.

А.Б.: Важно понимать, какую задачу мы решаем и о каком подходе говорим. Если мы решаем задачу по выявлению аномалий в сетевом трафике, используя классическое ML, то качественный, размеченный датасет — это критический фактор. Нет данных — нет модели. Здесь ничего не изменилось.

Но есть набор задач, которые можно решить с помощью GenAI, и это ограничение уже неактуально. Возьмём наш пример из доклада с обработкой комментариев клиентов в SOC. Нам не нужен огромный датасет, чтобы начать. Предобученная большая языковая модель уже понимает человеческий язык. Наша главная задача — не собрать большие датасеты, а чётко описать процесс: если клиент пишет «это ложное срабатывание», то нужно выполнить действие А; если пишет «срочно нужна помощь» — действие Б. 

Фокус смещается с проблемы данных на проблему проектирования процесса. Более того, для некоторых задач мы можем использовать LLM для генерации синтетических датасетов, чтобы на них обучать уже классические, более узкоспециализированные модели. Поэтому вопрос не только в данных, но и в том, какую задачу и каким методом мы решаем.

В завершение нашего интервью хотелось бы спросить: что бы вы порекомендовали нашим читателям и заказчикам, которые сейчас наблюдают за бурным развитием технологий искусственного интеллекта и машинного обучения? Как подходить к этому, какие шаги предпринимать, с чего начинать? Мне кажется, многие сейчас не понимают, как это работает и как правильно использовать технологии ИИ в своей практике.

А.Б.: Мне кажется, что уже сейчас важно проявлять любознательность к ИИ. Можно внутри компании выделять сотрудников, которые интересуются ИИ и активно используют его в личных целях. Из таких энтузиастов могут вырасти небольшие исследовательские команды, а со временем — полноценные подразделения. Следующий шаг — дать этим сотрудникам понятную задачу: найти самый рутинный процесс и предложить, как его можно улучшить с помощью ИИ.

Первые успехи можно получить даже силами любознательного Python-разработчика: войти в ИИ-домен для проверки гипотез сегодня не так сложно. При этом важно соблюдать корпоративные политики. Например, есть LLM, которые можно развернуть локально, и данные при этом остаются внутри компании.

Если определить правила работы с ИИ, несколько мотивированных специалистов смогут быстро начать эксперименты и постепенно внедрять ИИ в бизнес-процессы. Главное, не ждать идеального момента, а начать пробовать уже сейчас.

А как можно мотивировать сотрудников? Возможно, у вас в компании уже использовались какие-то системы мотивации, чтобы побудить людей попробовать новые инструменты: например, GigaChat, «Алису» или другие сервисы. Как заинтересовать специалистов в изучении и тестировании технологий ИИ на практике?

А.Б.: Мне кажется, главные факторы мотивации — это показать реальную пользу от ИИ и создать среду, в которой любопытство поощряется.

Для этого мы, как экспертная команда, сами активно сеем эти идеи: проводим вебинары и подкасты, неформальные встречи за кофе, выступаем на внутренних митапах. Наша цель — не заставить, а показать на реальных примерах, как ИИ может убрать рутину и сделать работу интереснее.

Также у нас регулярно проходят внутренние хакатоны (GO.ZONE), где есть возможность воплотить разные идеи в реальность. Одна из побед нашей команды была в прототипе голосового ассистента для CISO (сделали на базе голосовой колонки Сбера и внутреннего GenAI-приложения). Было очень весело наблюдать за реакцией зрителей, жюри и участников других команд.

По итогу после всех этих активностей формируется больше инициативных сотрудников, которые смогут задавать тренд и становиться амбассадорами внутри компании. Если инициативные сотрудники на собственном опыте увидят преимущества использования ИИ, они будут делиться знаниями и мотивировать коллег. Конечно, скептики всегда будут, но даже они со временем вовлекаются, видя реальные успехи своих коллег.

Благодаря ChatGPT я смог освоить Python. Оказалось, что это очень просто, а сам процесс принёс позитивный опыт. Порог входа действительно низкий, и использование инструмента оставило очень положительное впечатление.

А.Б.: Вы абсолютно правы, и ваш пример — это суть всей этой революции. Порог входа для создания чего-то нового снизился почти до нуля.

Сейчас существуют продвинутые код-ассистенты вроде Cursor. Они позволяют специалистам из любой области, например продакт-менеджерам, быстро проверять гипотезы и создавать полноценные прототипы. А решение вроде Replit позволяет не только разработать, но еще и сразу задеплоить и опубликовать веб-приложение в интернете. Раньше для реализации такой идеи потребовался бы веб-разработчик и несколько дней ожиданий. Сейчас этот путь сократился буквально до нескольких часов, а где-то и минут. И это, на мой взгляд, самый позитивный и вдохновляющий результат развития ИИ.

Благодарю вас, Александр, за очень полезную и содержательную беседу. Удачи и развития по всем направлениям!