InfoWatch планирует выпустить продукт класса UEBA

InfoWatch планирует выпустить продукт класса UEBA

InfoWatch планирует выпустить продукт класса UEBA

Группа компаний InfoWatch на форуме GISEC-2018 в Дубае, ОАЭ, анонсировала выход продукта InfoWatch Prediction в классе UEBA (User and Entity Behavior Analytics). Аналитический инструмент предназначен для автоматизированного решения прикладных задач на основе прогнозирования рисков информационной безопасности, которые связаны с кадровой и финансовой политикой, выявлением инсайдерства, компрометации учетных записей, а также другими критичными с точки зрения управления персоналом процессами в организации. Базовым сценарием в первой версии продукта стало заблаговременное определение системой сотрудников, которые собираются уволиться. Коммерческий релиз решения запланирован на 2018 год.

«Идеология InfoWatch Prediction нацелена на решение конкретных задач в области корпоративной информационной безопасности с возможностью проверки результата, — рассказал Андрей Арефьев, руководитель направления перспективных разработок ГК InfoWatch. — Ключевой особенностью нашего продукта является то, что он построен на строгой математической модели и позволяет предотвращать конкретные риски, а также проверить точность работы решения. Мы предоставляем компании инструмент, который позволяет с высокой точностью заблаговременно определить сотрудников, которые планируют покинуть штат, и тем самым минимизировать сопряженные с этим риски информационной безопасности». 

Решение анализирует информационные потоки компании (Big Data) и на основании моделей, построенных с применением методов машинного обучения, вычисляет вероятность увольнения сотрудников компании. InfoWatch Prediction рассчитывает индивидуальный рейтинг каждого сотрудника, который может быть положительным или отрицательным. Положительный рейтинг свидетельствует о том, что человек находится в зоне риска, и чем выше показатель, тем больше вероятность его ухода.

InfoWatch Prediction прошел необходимые испытания в инфраструктуре ряда крупных компаний, ежедневно анализируя десятки тысяч событий. По проведенным промышленным испытаниям точность определения сотрудников, которые собираются уволиться, составила 90%. Помимо этого, продукт позволяет заказчику быстро убедиться в эффективности оценки на основании ретроспективной выборки данных. 

«Мы можем продемонстрировать клиенту работоспособность системы почти мгновенно, хотя большинству других продуктов в области информационной безопасности требуются месяцы для сбора доказательств эффективности, и клиент вынужден тратить на это свои ресурсы: оборудование, время, деньги, — сообщил Андрей Арефьев. — Продукту достаточно лишь проанализировать данные, полученные с  почтового сервера или DLP-системы в компании за последний год, после чего он определяет уволившихся сотрудников, и у клиента есть возможность сравнить этот результат с реальными данными из отдела кадров». 

Для офицера безопасности организации выявление увольняющегося сотрудника позволяет применить специальные настройки политик безопасности, установить дополнительный контроль к его действиям и коммуникациям. Кроме того, решение позволяет не только минимизировать риски ИБ, но и будет полезно для реализации управленческого, финансового и кадрового учета в компании. 

По словам Андрея Арефьева, издержки от потери работника для организации равны его годовому окладу. Они складываются из многих факторов: низкой эффективности работы сотрудника, намеревающегося уволиться, различных выплат при его уходе, ресурсов и времени, потраченных на поиск новых кадров, а также их последующую адаптацию, добавил он. 

Также в рамках форума GISEC-2018 специалисты InfoWatch представили международный учебный центр цифровых технологий и кибербезопасности для стран Ближнего Востока, который направлен на подготовку и повышение квалификации специалистов в области информационной безопасности, интернета вещей, анализа больших данных, искусственного интеллекта, технологии блокчейн и прочих.

ИИ учится задавать вопросы сам себе — и от этого становится умнее

Даже самые продвинутые ИИ-модели пока что во многом лишь повторяют — учатся на примерах человеческой работы или решают задачи, которые им заранее придумали люди. Но что если искусственный интеллект сможет учиться почти как человек — сам задавать себе интересные вопросы и искать на них ответы?

Похоже, это уже не фантазия. Исследователи из Университета Цинхуа, Пекинского института общего искусственного интеллекта (BIGAI) и Университета штата Пенсильвания показали, что ИИ способен осваивать рассуждение и программирование через своеобразную «игру с самим собой».

Проект получил название Absolute Zero Reasoner (AZR). Его идея проста и изящна одновременно. Сначала языковая модель сама придумывает задачи по программированию на Python — достаточно сложные, но решаемые. Затем она же пытается их решить, после чего проверяет себя самым честным способом: запускает код.

 

Если решение сработало — отлично. Если нет — ошибка становится сигналом для обучения. На основе успехов и провалов система дообучает исходную модель, постепенно улучшая и умение формулировать задачи, и способность их решать.

Исследователи протестировали подход на открытой языковой модели Qwen с 7 и 14 миллиардами параметров. Оказалось, что такой «самообучающийся» ИИ заметно улучшает навыки программирования и логического мышления — и в некоторых тестах даже обгоняет модели, обученные на вручную отобранных человеческих данных.

 

По словам аспиранта Университета Цинхуа Эндрю Чжао, одного из авторов идеи, подход напоминает реальный процесс обучения человека:

«Сначала ты копируешь родителей и учителей, но потом начинаешь задавать собственные вопросы. И в какой-то момент можешь превзойти тех, кто тебя учил».

Идея «самоигры» для ИИ обсуждается не первый год — ещё раньше её развивали такие исследователи, как Юрген Шмидхубер и Пьер-Ив Удейер. Но в Absolute Zero особенно интересно то, как растёт сложность задач: чем умнее становится модель, тем более сложные вопросы она начинает ставить перед собой.

«Уровень сложности растёт вместе с возможностями модели», — отмечает исследователь BIGAI Цзилун Чжэн.

Сейчас подход работает только там, где результат можно легко проверить — в программировании и математике. Но в будущем его хотят применить и к более «жизненным» задачам: работе ИИ-агентов в браузере, офисных сценариях или автоматизации процессов. В таких случаях модель могла бы сама оценивать, правильно ли агент действует.

«В теории это может стать путём к суперинтеллекту», — признаёт Чжэн.

RSS: Новости на портале Anti-Malware.ru