Microsoft добавила ИИ-защиту от шифровальщиков в Defender for Endpoint

Microsoft добавила ИИ-защиту от шифровальщиков в Defender for Endpoint

Microsoft добавила ИИ-защиту от шифровальщиков в Defender for Endpoint

Microsoft разработала систему детектирования кибератак программ-вымогателей, которая будет управляться искусственным интеллектом. Этим добром порадуют пользователей корпоративной платформы Microsoft Defender для конечной точки (Microsoft Defender for Endpoint).

Ожидается, что новая система будет дополнять существующую облачную защиту, оценивать киберриски и блокировать атакующих на периметре.

Специалисты Microsoft считают, что атаки операторов шифровальщиков всегда сопровождаются специфическим поведением и характеризуются определённым набором методов. Именно по этим критериям ИИ сможет вычислять такие кибероперации.

Одной из отличительных черт атак операторов программ-вымогателей является способ закрепления в целевой системе. Как правило, злоумышленники используют бинарник вредоноса, предоставляющий удалённый доступ к атакованному устройству.

Однако стоит учитывать, что не все подобные файлы можно отнести к классу вредоносных, поскольку иногда преступники используют вполне легитимные изначально инструменты или «родные» команды в Windows.

Особенность новой ИИ-системы от Microsoft в том, что она будет детектировать необычное поведение даже от безобидных исполняемых файлов. Специалисты полагают, что это может сыграть ключевую роль в обнаружении опасных кибератак на организации.

Также администраторы смогут оценить адаптивность системы, которая может автоматически подстраивать порог детектирования.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru