27 дыр в Eltima SDK затрагивают миллионы пользователей облачных услуг

27 дыр в Eltima SDK затрагивают миллионы пользователей облачных услуг

27 дыр в Eltima SDK затрагивают миллионы пользователей облачных услуг

Исследователи в области кибербезопасности выявили 27 уязвимостей в библиотеке Eltima SDK, которую используют многие облачные провайдеры для удалённого монтирования локальных USB-устройств. В руках злоумышленника эти бреши могут привести к повышению привилегий и отключению защитных продуктов.

Как отметили эксперты, в условиях пандемии спрос на облачные сервисы значительно повысился. Это сыграло роль в росте популярности библиотеки Eltima SDK, позволяющей сотрудникам организаций монтировать USB-накопители.

На уязвимости Eltima SDK обратили внимание специалисты компании SentinelOne. По их данным, эти бреши угрожают миллионам пользователей по всему миру. В случае успешной эксплуатации удалённый киберпреступник может повысить права и выполнить код на уровне ядра.

«Выявленные уязвимости могут помочь атакующему отключить защитные продукты, перезаписать системные компоненты, повредить файлы операционной системы или осуществлять любую вредоносную активность», — гласит отчёт Sentinel Labs.

 

Более того, эксплуатация дыр также может привести к краже учётных данных, которые злоумышленники впоследствии могут использовать для взлома сети целевой организации. В общей сложности эксперты нашли 27 багов, CVE-идентификаторы которых приводим ниже:

CVE-2021-42972, CVE-2021-42973, CVE-2021-42976, CVE-2021-42977, CVE-2021-42979, CVE-2021-42980, CVE-2021-42983, CVE-2021-42986, CVE-2021-42987, CVE-2021-42988, CVE-2021-42990, CVE-2021-42993, CVE-2021-42994, CVE-2021-42996, CVE-2021-43000, CVE-2021-43002, CVE-2021-43003, CVE-2021-43006, CVE-2021-43637, CVE-2021-43638, CVE-2021-42681, CVE-2021-42682, CVE-2021-42683, CVE-2021-42685, CVE-2021-42686, CVE-2021-42687, CVE-2021-42688

Поскольку разработчики Eltima уже выпустили патчи для всех затронутых версий, облачным провайдерам стоит просто обновить софт. По словам SentinelOne, Eltima SDK используется на следующих платформах:

  • Amazon Nimble Studio AM — до 2021/07/29
  • Amazon NICE DCV — версии ниже 2021.1.7744 (Windows), 2021.1.3560 (Linux), 2021.1.3590 (macOS), 2021/07/30
  • Amazon WorkSpaces agen — версии ниже v1.0.1.1537, 2021/07/31
  • Amazon AppStream — версии ниже 1.1.304, 2021/08/02
  • NoMachine (все продукты для Windows)
  • Accops HyWorks Client для Windows версии v3.2.8.180 и старше
  • Accops HyWorks DVM Tools для Windows: версии 3.3.1.102 и ниже
  • Eltima USB Network Gate — версии ниже 9.2.2420
  • Amzetta zPortal Windows zClient — v3.2.8180.148
  • Amzetta zPortal DVM Tools — v3.3.148.148
  • FlexiHub below 5.2.14094 — 3.3.11481
  • Donglify below 1.7.14110 — 1.0.12309

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru