В инструменте АНБ Ghidra найдена RCE-уязвимость

В инструменте АНБ Ghidra найдена RCE-уязвимость

В инструменте АНБ Ghidra найдена RCE-уязвимость

Исследователи в области безопасности предупреждают, что недавно опубликованный АНБ инструмент для обратного инжиниринга, получивший название Ghidra, содержит уязвимость, которая позволяет удаленно выполнить код.

Сама уязвимость представляет сбой известную проблему внешних сущностей XML (XML external entity, XXE). Согласно сообщению на GitHub, злоумышленник может использовать ее, заставив жертву открыть специально созданный вредоносный проект.

Алгоритм эксплуатации в этом случае выглядит так:

  • Злоумышленник создает проект и закрывает его.
  • Затем помещает XXE-пейлоад в любой из файлов XML, расположенных в директории проекта.
  • Как только проект открывается пользователем, вредоносная нагрузка выполняется.

По словам эксперта под псевдонимом «sghctoma», обнаружившего этот баг, атаковать пользователя можно и с помощью файлов .gar.

Наличие бреши в Ghidra прокомментировали и специалисты компании Tencent Security:

«Основываясь на нашем прошлом исследовании, можно сделать вывод, что атакующий может использовать особенности Java, а также уязвимости в протоколе NTLM в системах Windows. Грамотное использование этих инструментов позволит удаленно выполнить код».

В начале марта мы писали, что Агентство национальной безопасности (АНБ) США выпустило бесплатный кроссплатформенный инструмент под названием Ghidra, предназначенный для обратного инжиниринга. АНБ планирует в ближайшее время опубликовать исходный код Ghidra на GitHub.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru