На GitHub раздают стилер поклонникам Photoshop, FL Studio, Roblox, Fortnite

На GitHub раздают стилер поклонникам Photoshop, FL Studio, Roblox, Fortnite

На GitHub раздают стилер поклонникам Photoshop, FL Studio, Roblox, Fortnite

На GitHub выявлена масштабная кампания по распространению трояна Redox Stealer под видом кряков популярного софта, а также модов и читов для игр. Найдено более 1000 репозиториев с фейковыми кодами Photoshop, FL Studio, Roblox, Fortnite.

Как оказалось, для их создания используется ИИ, и потому фальшивки быстро множатся, с успехом обходят автоматизированную защиту GitHub, а после удаления появляются вновь под другими аккаунтами.

На русскоязычном форуме, торгующем крадеными данными, опубликована подробная инструкция по созданию и оформлению правдоподобных фейков. Из 1115 обнаруженных вредоносных репозиториев лишь 10% вызвали подозрение, да и то благодаря обращениям в техподдержку GitHub.

 

Чтобы придать убедительность подделкам, злоумышленники добавляют сфабрикованные скриншоты, результаты сканов на VirusTotal, а при клонировании слегка изменяют текст README с помощью ChatGPT и других инструментов ИИ.

Чтобы уберечь полезную нагрузку от обнаружения, ее прячут в файлах RAR или ZIP. Код вредоносных скриптов обфусцирован (base64 и динамический импорт).

Троян-стилер Redox умеет собирать следующую информацию:

  • пароли и куки, сохраненные в браузерах;
  • ключи от онлайн-банкинга и криптокошельков;
  • учетки Steam, Riot Games, Epic Games;
  • токены Discord;
  • данные из буфера обмена, в том числе пароли и адреса.

Всю добычу зловред отправляет через вебхук на сервер Discord, чтобы операторы могли вручную выбрать то, что представляет ценность.

Для продвижения вредоносных репозиториев используются black SEO и возможности GitHub: распространители Redox Stealer манипулируют темами и метаданными, чтобы повысить свой рейтинг в поисковой системе сайта.

ChatGPT и DeepSeek пропускают до 50% уязвимостей в софте на Java и Python

Группа компаний «Солар» проверила, насколько хорошо большие языковые модели справляются с двумя самыми трудоёмкими задачами в безопасной разработке — триажем уязвимостей и их исправлением в коде. Итог исследования получился довольно показательный: популярные общедоступные модели ускоряют работу, но пока слишком часто ошибаются, чтобы полностью на них полагаться.

Эксперты Solar appScreener протестировали шесть LLM на 20 крупных приложениях на Java и Python, каждое объёмом более 100 тысяч строк кода. Для анализа использовали как облачные модели — GigaChat 3 PRO, ChatGPT 5.2 и DeepSeek 3.2, так и локальные решения on-premise, включая ChatGPT OSS, Mistral и специализированные модели DerTriage и DerCodeFix.

Сначала с помощью SAST-анализа в проектах нашли около 12 тысяч уникальных срабатываний, из которых почти 20% пришлись на уязвимости высокой критичности. После этого все модели получили одинаковый промпт с описанием уязвимости, фрагментом кода, трассой достижимости и идентификаторами CWE.

На этапе триажа результаты оказались неровными. В Java-проектах среди облачных моделей лучше всех выступил ChatGPT с точностью 60,9%, а DeepSeek показал лишь 50%. В Python-коде картина поменялась: DeepSeek добрался до 80%+, а ChatGPT показал 52,7%. Но лучший результат среди локальных решений продемонстрировала DerTriage — более 80% точности и для Java, и для Python.

С кодфиксом ситуация похожая. Для Java ChatGPT показал 61,8% точности, DeepSeek — 45,5%. В Python их показатели составили 46,6% и 44,8% соответственно. Локальная модель DerCodeFix снова оказалась впереди: 78,2% точности на Java и 83,1% на Python.

Главный вывод исследования простой: LLM действительно экономят время, но на самых ответственных этапах безопасной разработки универсальные модели пока не дают нужной надёжности. Если команда безоговорочно доверится таким инструментам, есть риск пропустить критичные уязвимости.

В «Соларе» также напоминают ещё об одной проблеме: использование облачных моделей может стать каналом утечки исходного кода. Поэтому для задач безопасной разработки компания рекомендует смотреть в сторону локальных моделей on-premise, которые работают в закрытом контуре и всё равно требуют проверки со стороны AppSec-инженера.

RSS: Новости на портале Anti-Malware.ru