Windows угрожает ещё один метод установки вредоносных драйверов

Windows угрожает ещё один метод установки вредоносных драйверов

Windows угрожает ещё один метод установки вредоносных драйверов

Казалось бы, все уже должны были забыть про уязвимость PrintNightmare, однако о ней внезапно снова заговорили. Исследователи привели ещё один пример того, как атакующие могут повысить права до SYSTEM с помощью вредоносных драйверов для принтера.

О новых проблемах в безопасности сообщил создатель Mimikatz Бенджамин Делпи, который также отметил, что ему удалось найти новый способ инсталляции драйверов принтера и повышения своих привилегий в системе до уровня SYSTEM.

Причём способ Делпи сработает даже в том случае, если системные администраторы тщательно следовали инструкции Microsoft, в которой техногигант советует ограничить возможность установки драйверов для печати.

То, о чём говорит Делпи нельзя назвать аналогичным PrintNightmare методом, однако эксперт рассчитывает, что его находка будет рассматриваться именно под этим именем. Алгоритм Делпи предполагает создание вредоносного драйвера и подпись его с помощью сертификата Authenticode (шаги описаны здесь). Стоит также учитывать, что злоумышленники могут купить или выкрасть EV-сертификат.

После подписи атакующие свободно устанавливают драйвер на любое сетевое устройство, где у них есть соответствующие права. Следующим шагом привилегии уже повышаются до SYSTEM, что демонстрируется на видео ниже:

 

По словам Делпи, его метод можно использовать для латерального передвижения по сети жертвы. Чтобы заблокировать этот вектор атаки, следует просто отключить службу Print Spooler.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru