Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Троян PipeMagic маскируется под ChatGPT и расширил географию мишеней

Авторы целевых атак с использованием PipeMagic стали выдавать троянский бэкдор за приложение ChatGPT. Вредоносная фальшивка, подвергнутая анализу в «Лаборатории Касперского», оказалась написанной на Rust.

Модульный бэкдор, умеющий воровать конфиденциальные данные, впервые попал в поле зрения экспертов в 2022 году; на тот момент его применяли в атаках на организации азиатских стран. В прошлом месяце злоумышленники расширили географию своих интересов и объявились в Саудовской Аравии.

Распространяемый ими фейк содержит несколько ходовых библиотек Rust, создающих иллюзию легитимности. Однако при открытии приложения появляется пустое окно; как оказалось, за ним спрятан целевой зловред — массив зашифрованных данных размером 105 615 байт.

Троян использует алгоритм хеширования для поиска в памяти функций Windows API по соответствующим смещениям. После этого в систему загружается бэкдор, который настраивается и запускается на исполнение.

«Злоумышленники постоянно совершенствуют свои стратегии, чтобы атаковать более крупные жертвы, и расширяют своё присутствие, — предупреждает Сергей Ложкин, ведущий эксперт Kaspersky GReAT. — Примером этого стала кампания PipeMagic, в которой действие трояна было расширено от Азии до Саудовской Аравии. Мы ожидаем, что число кибератак с использованием этого бэкдора будет расти».

В прошлом году PipeMagic засветился в атаках, нацеленных на засев шифровальщика Nokoyawa. Для его запуска использовался опенсорсный скрипт MSBuild.

Стоит также отметить, что зловреды на Rust — давно уже не редкость. Использование этого языка программирования позволяет повысить быстродействие, эффективность и стабильность работы вредоносного кода, к тому же подобные творения вирусописателей способны работать на различных платформах.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru