Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Авторы целевых атак с использованием PipeMagic стали выдавать троянский бэкдор за приложение ChatGPT. Вредоносная фальшивка, подвергнутая анализу в «Лаборатории Касперского», оказалась написанной на Rust.

Модульный бэкдор, умеющий воровать конфиденциальные данные, впервые попал в поле зрения экспертов в 2022 году; на тот момент его применяли в атаках на организации азиатских стран. В прошлом месяце злоумышленники расширили географию своих интересов и объявились в Саудовской Аравии.

Распространяемый ими фейк содержит несколько ходовых библиотек Rust, создающих иллюзию легитимности. Однако при открытии приложения появляется пустое окно; как оказалось, за ним спрятан целевой зловред — массив зашифрованных данных размером 105 615 байт.

Троян использует алгоритм хеширования для поиска в памяти функций Windows API по соответствующим смещениям. После этого в систему загружается бэкдор, который настраивается и запускается на исполнение.

«Злоумышленники постоянно совершенствуют свои стратегии, чтобы атаковать более крупные жертвы, и расширяют своё присутствие, — предупреждает Сергей Ложкин, ведущий эксперт Kaspersky GReAT. — Примером этого стала кампания PipeMagic, в которой действие трояна было расширено от Азии до Саудовской Аравии. Мы ожидаем, что число кибератак с использованием этого бэкдора будет расти».

В прошлом году PipeMagic засветился в атаках, нацеленных на засев шифровальщика Nokoyawa. Для его запуска использовался опенсорсный скрипт MSBuild.

Стоит также отметить, что зловреды на Rust — давно уже не редкость. Использование этого языка программирования позволяет повысить быстродействие, эффективность и стабильность работы вредоносного кода, к тому же подобные творения вирусописателей способны работать на различных платформах.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru