Securonix внедряет ИИ для облегчения работы ИБ-экспертов

Securonix внедряет ИИ для облегчения работы ИБ-экспертов

Securonix внедряет ИИ для облегчения работы ИБ-экспертов

Securonix объявила о выпуске решения SNYPR Security Analytics версии 6.2. Эта версия отметилась новой функцией ResponseBot, которая предназначена для снятия нагрузки с аналитиков в области кибербезопасности. Также она поможет улучшить время реагирования на инциденты на 95 %.

Тануж Гулати, технический директор и соучредитель Securonix, комментирует нововведение следующим образом:

«Мы постоянно слышим о том, что эксперты в области кибербезопасности пользуются большим спросом. При этом у организаций зачастую нет достаточного количества квалифицированных кадров для борьбы с постоянным потоком инцидентов безопасности».

«Помимо этого, две трети ИБ-специалистов утверждают, что из-за занятости у них нет времени на повышение квалификации. ResponseBot представляет собой рекомендательную систему, завязанную на искусственном интеллекте. Эта система поможет вооружить ИБ-аналитиков огромным опытом, который позволит им немедленно реагировать на киберинциденты».

Новая версия платформы от Securonix включает функции, которые помогают снизить нагрузку на отделы безопасности. Среди таких ключевых функций можно выделить следующие:

  • Securonix ResponseBot — основанный на ИИ механизм, который помогает Tier-1 аналитикам справляться со сложными угрозами безопасности без необходимости привлечения более высокопоставленных сотрудников. Securonix ResponseBot сканирует решения, принимаемые экспертами в области безопасности, анализирует их и использует для машинного обучения.
  • Securonix SNYPREye — сложная утилита мониторинга, которая обеспечивает бесперебойную работу всех компонентов системы. Она позволит командам безопасности уделять больше времени кибербезопасности, а не поддержке платформы аналитики.
  • Обновленный командный центр безопасности — набор новых фильтров и виджетов, оптимизированных для Tier-1 аналитиков.
  • Новый воркфлоу конфиденциальности — автоматизированный рабочий процесс, обеспечивающий соблюдение правил конфиденциальности, таких как GDPR.
  • Улучшенные профили поведения — улучшенные представления профилей поведения пользователей.

«В современном мире организациям надо постоянно идти в ногу с постоянным увеличивающимся числом алертов и растущими объемами данными логов», — говорит Эрик Огрен, старший аналитик по вопросам безопасности в 451 Research.

«Наше недавнее исследование показало, что расходы на персонал уже составляют 40 % бюджетов всей корпоративной безопасности. Однако 48 % крупных предприятий по-прежнему считают, что нанять грамотных специалистов невероятно сложно».

«Искусственный интеллект, применяемый в Securonix ResponseBot, обещает предоставить ИБ-экспертам возможность эффективно реагировать на предупреждения, которые в наибольшей степени способны повлиять на бизнес».

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru