Вышла новая версия Security Vision UEBA с расширенным набором ML-моделей

Вышла новая версия Security Vision UEBA с расширенным набором ML-моделей

Вышла новая версия Security Vision UEBA с расширенным набором ML-моделей

Продукт Security Vision UEBA автоматически выстраивает типовые модели поведения объектов инфраструктуры (пользователей, учетных записей, устройств, процессов и др.), анализируя сырые потоки данных (сетевой трафик, логи прокси-серверов, почтовых серверов, windows/linux серверов и рабочих станций и др.), выявляет отклонения и предоставляет гибкие инструменты по их анализу, расследованию и реагированию. Наиболее значимые обновления:

Anomaly Detection

Применение методов Anomaly Detection расширяет возможности выявления аномалий в корпоративной инфраструктуре, применяя большое количество разных моделей и методик Machine Learning, стекируя результаты отдельных моделей и объединяя полученные события в инциденты для дальнейшего расследования.

ML-модели

В новой версии Security Vision UEBA существенного расширен набор используемых ML-моделей. Применяются следующие модели:

  • «с учителем» для выявления похожих паттернов реальных атак (предобученные на различных атаках и вредоносных активностях (DDOS, botnet, C&C и др.)),
  • модели «без учителя» для нахождения аномалий среди сетевого трафика и событий с хостов, нейросети (в т.ч.  RNN),
  • модели для обнаружения мимикрирующих процессов
  • и др.

Важно отметить, что обработка всех моделей выполняется на инфраструктуре Заказчика без необходимости отправки каких-либо данных «в облако». За счет оптимизаций архитектуры и самих моделей требования к инфраструктуре минимизированы и не требуют специализированного оборудования.

Продукт позволяет проводить гибкую настройку всех параметров ML-моделей через UI, а также добавлять собственные модели.

Минимизация false-positive сработок

Особый упор сделан на оркестрации работы ML-моделей и минимизации false-positive (FP) сработок. Разработаны механизмы автоматического контроля работы и отключения моделей в случае большого количества сработок FP. Также Security Vision UEBA автоматически и регулярно переобучает модели на данных Заказчика для лучшей адаптации к инфраструктуре, потокам данных и их изменениям. Переобучаются также и модели «с учителем», где используемые датасеты типовых атак и вредоносных активностей автоматически объединяются и «растягиваются» на данные по инфраструктуре Заказчика, полученные из обработанных событий. Реализован автоматический подбор параметров модели: Security Vision UEBA в процессе обучения сама подбирает гиперпараметры для достижения лучшего результата сработок и минимизации количества FP.

Статистические методы дают возможность автоматически накапливать статистику по новым параметрам, объемным, частотным и количественным показателям по используемым хостам, процессам, командным строкам, именованным пайпам и многим другим характеристикам отдельно по каждому объекту наблюдения, что также существенно снижает уровень FP сработок и позволяет пользователю через UI гибко настраивать веса, добавлять или корректировать имеющиеся правила.

Правила корреляции

Расширен базовый набор правил корреляции, входящих в состав коробочного решения. Экспертами Security Vision были разработаны уникальные правила корреляции, позволяющие находить подозрительные действия в потоках сетевого трафика/потоков прокси серверов, а также выявлять подозрительные события на хостах. Данные алерты объединяются вместе со сработками движков статистики и ML, что в итоге позволяет собрать более полный анализ действий подозрительного объекта, учесть каждую сработку правила корреляции со своим уникальным весом (в зависимости от критичности), который будет суммирован с весом событий от других источников наблюдения и в случае превышения порогового значения может привести к созданию инцидента.

Также в Security Vision UEBA встроен полноценный редактор правил корреляции, используя который, можно настраивать правила любой глубины и сложности через UI продукта.  

Отображение объектов и сработок

Переработано отображение всех объектов и сработок для предоставления более полного и удобного функционала анализа и расследования полученных инцидентов: графы связей объектов, автоматическое обогащение данными из внешних и внутренних сервисов, drill-down до каждого связного объекта, исходные события по объекту с указанием источника и всех атрибутов, динамика поступления событий и др. В Security Vision UEBA встроены действия по базовому реагированию на полученные инциденты (например, с NGFW, active-листами и т.п.) или для отправки инцидентов в SOAR и SIEM системы.

Используя API продукта, можно гибко настраивать получение сработок по объектам, получать подозрительные события и алерты по каждому объекту (например, для обогащения этой информацией инцидентов в SOAR).

Расширение возможностей

Продукт Security Vision UEBA реализован на платформе Security Vision 5, что позволяет Заказчикам расширять его возможности, создавая как новые объекты наблюдения (включая их карточки, общие представления, процессы обработки и сценарии реагирования), корректировать или расширять процесс обработки выявленных сработок, создавать новые интеграции, корректировать и создавать дашборды и отчеты – все полностью через графические конструкторы, встроенные в UI продукта.

ИИ научился находить владельцев скрытых аккаунтов в соцсетях

Искусственный интеллект, который многим кажется удобным помощником для работы и поиска информации, оказался ещё и очень полезным инструментом для деанонимизации. Новое исследование показало, что большие языковые модели могут заметно упростить поиск владельцев анонимных аккаунтов в соцсетях.

Схема такая: ИИ анализирует всё, что человек пишет в анонимном профиле, вычленяет характерные детали, а потом ищет совпадения на других платформах, где пользователь уже выступает под настоящим именем или хотя бы менее скрытно. И во многих тестах такой подход срабатывал довольно точно.

Авторы исследования, Саймон Лермен и Даниэль Палека, прямо говорят: большие языковые модели сделали подобные атаки не только возможными, но и экономически оправданными. По их мнению, это заставляет буквально заново пересмотреть представление о том, что вообще можно считать конфиденциальностью в интернете.

В рамках эксперимента исследователи «скармливали» модели анонимные аккаунты и просили собрать максимум доступной информации. Дальше ИИ сопоставлял детали из постов с другими открытыми источниками. Пример, который приводят авторы, выглядит почти бытовым: человек пишет о проблемах в школе и о прогулках с собакой по кличке Бисквит в парке Мишен Долорес. Для живого человека это может быть просто набор мелочей. Для ИИ — уже почти готовый пазл.

Дальше модель ищет, где ещё в интернете встречается такой же набор деталей, и с высокой вероятностью связывает анонимный аккаунт с конкретным человеком. И это, пожалуй, самое неприятное в истории: ничего взламывать тут не нужно. Достаточно открытых данных и модели, которая умеет быстро собирать разрозненные кусочки в цельную картину.

Исследователи отдельно предупреждают, что такая технология может использоваться не только мошенниками, но и государственными структурами для слежки за активистами и другими людьми, которые стараются высказываться анонимно.

А для киберпреступников это ещё и удобный путь к целевым атакам — например, к персонализированному фишингу, когда жертве пишут так убедительно, будто сообщение отправил знакомый человек.

По сути, ИИ делает массовое OSINT-наблюдение куда доступнее. Раньше для такой работы нужны были время, навыки и терпение. Теперь во многих случаях хватает публично доступной модели и подключения к интернету. Именно это и вызывает тревогу у специалистов по кибербезопасности.

Впрочем, исследователи и эксперты подчёркивают, что ИИ тут не всесилен. Большие языковые модели всё ещё ошибаются, а иногда и откровенно фантазируют. Из-за этого возможны ложные совпадения, когда человека могут ошибочно связать с аккаунтом, к которому он вообще не имеет отношения. И это уже отдельный риск, особенно если речь идёт о политических темах или публичных обвинениях.

Ещё одна важная проблема в том, что для деанонимизации могут использоваться не только соцсети. По словам экспертов, в дело могут идти и другие открытые данные: статистические публикации, записи, сведения о поступлении, медицинские наборы данных и другие массивы информации, которые раньше считались достаточно обезличенными. В эпоху ИИ этого обезличивания может уже не хватать.

В качестве первых мер защиты авторы советуют платформам жёстче ограничивать массовый сбор данных: вводить лимиты на выгрузку пользовательской информации, отслеживать автоматический скрейпинг и ограничивать массовый экспорт данных.

А обычным пользователям рекомендация простая: чуть внимательнее относиться к тому, какие повторяющиеся детали о себе они оставляют в открытом доступе.

RSS: Новости на портале Anti-Malware.ru