Эксперт Avast обнаружил новый шифровальщик «Kirk», использующий Monero

Эксперт Avast обнаружил новый шифровальщик «Kirk», использующий Monero

Эксперт Avast обнаружил новый шифровальщик «Kirk», использующий Monero

Исследователи обнаружили новый образец вымогателя с отсылкой к фильму Star Trek. Он шифрует 625 различных типов файлов и требует выкуп в виртуальной валюте Monero.

Вредонос, получивший название Kirk, был обнаружен экспертом Avast Якубом Кроустеком (Jakub Kroustek). Он написан на Python и это, пожалуй, первый зловред такого рода, который использует Monero в качестве валюты для выкупа.

Monero - криптовалюта с открытым исходным кодом, запущенная 18 апреля 2014 года с акцентом на конфиденциальность, которая начала набирать популярность только в прошлом году.

Как отмечает Лоренс Абрамс (Lawrence Abrams) из BleepingComputer, Kirk может быть первым вымогателем, требующим Monero для оплаты. Исследователь утверждает, что большинство других видов вымогателей требуют биткойны.

«Даже несмотря на то, что биткойны становятся все более популярными, приобрести их все еще непросто. Внедряя новую криптовалюту, злоумышленники рискуют запутать пользователей, что еще больше усложнит выплату выкупа» - считает Абрамс.

Экспертам пока еще не до конца известно, каким именно образом распространяется новый вымогатель. После запуска он генерирует ключ AES, используемый для шифрования файлов жертвы, после чего шифрует ключ, используя встроенный открытый ключ шифрования RSA-4096. Затем зловред сохраняет его в файле с именем pwd в том же каталоге, что и исполняемый вредоносный файл.

Шифровальщик добавляет расширение .kirk к зашифрованным файлам. Помимо этого, он копирует записку с требованиями в ту же папку, где находится исполняемый файл и отображает ее пользователю. Жертвам предлагается приобрести около 1 100 долларов в Monero и отправить их на определенный адрес. После совершения платежа пользователь должен отправить файл pwd и идентификатор платежной транзакции на адреса электронной почты kirk.help@scryptmail.com или kirk.payments@scryptmail.com.

ChatGPT и DeepSeek пропускают до 50% уязвимостей в софте на Java и Python

Группа компаний «Солар» проверила, насколько хорошо большие языковые модели справляются с двумя самыми трудоёмкими задачами в безопасной разработке — триажем уязвимостей и их исправлением в коде. Итог исследования получился довольно показательный: популярные общедоступные модели ускоряют работу, но пока слишком часто ошибаются, чтобы полностью на них полагаться.

Эксперты Solar appScreener протестировали шесть LLM на 20 крупных приложениях на Java и Python, каждое объёмом более 100 тысяч строк кода. Для анализа использовали как облачные модели — GigaChat 3 PRO, ChatGPT 5.2 и DeepSeek 3.2, так и локальные решения on-premise, включая ChatGPT OSS, Mistral и специализированные модели DerTriage и DerCodeFix.

Сначала с помощью SAST-анализа в проектах нашли около 12 тысяч уникальных срабатываний, из которых почти 20% пришлись на уязвимости высокой критичности. После этого все модели получили одинаковый промпт с описанием уязвимости, фрагментом кода, трассой достижимости и идентификаторами CWE.

На этапе триажа результаты оказались неровными. В Java-проектах среди облачных моделей лучше всех выступил ChatGPT с точностью 60,9%, а DeepSeek показал лишь 50%. В Python-коде картина поменялась: DeepSeek добрался до 80%+, а ChatGPT показал 52,7%. Но лучший результат среди локальных решений продемонстрировала DerTriage — более 80% точности и для Java, и для Python.

С кодфиксом ситуация похожая. Для Java ChatGPT показал 61,8% точности, DeepSeek — 45,5%. В Python их показатели составили 46,6% и 44,8% соответственно. Локальная модель DerCodeFix снова оказалась впереди: 78,2% точности на Java и 83,1% на Python.

Главный вывод исследования простой: LLM действительно экономят время, но на самых ответственных этапах безопасной разработки универсальные модели пока не дают нужной надёжности. Если команда безоговорочно доверится таким инструментам, есть риск пропустить критичные уязвимости.

В «Соларе» также напоминают ещё об одной проблеме: использование облачных моделей может стать каналом утечки исходного кода. Поэтому для задач безопасной разработки компания рекомендует смотреть в сторону локальных моделей on-premise, которые работают в закрытом контуре и всё равно требуют проверки со стороны AppSec-инженера.

RSS: Новости на портале Anti-Malware.ru