В инструменте АНБ Ghidra найдена очередная уязвимость выполнения кода

В инструменте АНБ Ghidra найдена очередная уязвимость выполнения кода

В инструменте АНБ Ghidra найдена очередная уязвимость выполнения кода

В инструменте Ghidra, выпущенном Агентством национальной безопасности (АНБ) США, нашли очередную уязвимость, позволяющую выполнить код. Напомним, что набор Ghidra предназначен для обратного инжиниринга.

К счастью, брешь получила среднюю степень риска, однако ситуацию отягощает отсутствие патча. Согласно описанию в базе данных уязвимостей, обнаруженный баг позволяет скомпрометировать затронутые системы.

Проблема безопасности отслеживается под идентификатором CVE-2019-16941. По словам исследователей, разработчики в настоящее время работают над выпуском обновления, в котором брешь будет устранена.

Для успешной эксплуатации злоумышленнику потребуется специально созданный файл XML, который жертва должна загрузить через плагин, минуя стандартную процедуру загрузки проекта. Все версии Ghidra, включая 9.0.4, уязвимы.

В марте в Ghidra обнаружили уязвимость, которая позволяет удаленно выполнить код. Злоумышленник мог использовать ее, тоже заставив жертву открыть специально созданный вредоносный проект.

А в августе стало известно, что за шесть месяцев Ghidra скачали с GitHub более 500 тыс. раз.

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru