Инфостилер Jarka прожил год на PyPI под видом инструментов интеграции ИИ

Инфостилер Jarka прожил год на PyPI под видом инструментов интеграции ИИ

Инфостилер Jarka прожил год на PyPI под видом инструментов интеграции ИИ

Эксперты «Лаборатории Касперского» нашли на PyPI два схожих пакета, якобы реализующих доступ к API популярных ИИ-моделей — GPT-4 Turbo и Claude AI. Анализ показал, что истинной целью в обоих случаях является внедрение зловреда JarkaStealer.

Вредоносные библиотеки gptplus и claudeai-eng были загружены в репозиторий Python-кодов в ноябре прошлого года, притом из-под одного и того же аккаунта. До удаления с подачи Kaspersky их скачали более 1700 раз пользователи из 30 стран (в основном жители США, Китая, Франции, Германии и России).

 

Описания содержали инструкции по созданию чатов для ИИ-ботов и примеры работы с большими языковыми моделями (БЯМ, LLM). Для имитации заявленной функциональности в код был встроен механизм взаимодействия с демопрокси ChatGPT.

При запуске параллельно происходит загрузка с GitHub файла JavaUpdater.jar — инфостилера Jarka. При отсутствии у жертвы софта Java с Dropbox скачивается JRE.

Внедряемый таким образом вредонос умеет выполнять следующие действия в системе:

  • собирать системную информацию;
  • воровать информацию из браузеров;
  • прерывать процессы Google Chrome и Microsoft Edge (чтобы вытащить сохраненные данные);
  • отыскивать сессионные токены в Telegram, Discord, Steam, чит-клиенте Minecraft;
  • делать скриншоты.

Украденные данные архивируются и передаются на C2-сервер. После этого файл с добычей удаляется с зараженного устройства, чтобы скрыть следы вредоносной активности.

Как оказалось, владельцы JarkaStealer продают его в Telegram по модели MaaS (Malware-as-a-Service, «вредонос как услуга»), однако за доступ уже можно не платить: исходники были опубликованы на GitHub. В рекламных сообщениях и коде зловреда обнаружены артефакты, позволяющие заключить, что автор стилера владеет русским языком.

«Обнаруженная кампания подчёркивает постоянные риски, связанные с атаками на цепочки поставок, — отметил эксперт Kaspersky GReAT Леонид Безвершенко. — При интеграции компонентов с открытым исходным кодом в процессе разработки критически важно проявлять осторожность. Мы рекомендуем организациям внедрять строгую проверку целостности кода на всех этапах разработки, чтобы убедиться в легитимности и безопасности внешнего программного обеспечения или внешних компонентов».

Тем, кто успел скачать gptplus или claudeai-eng, рекомендуется как можно скорее удалить пакет, а также обновить все пароли и сессионные токены.

Работодатели жалуются на дипломированную беспомощность из-за ИИ

Широкое распространение технологий искусственного интеллекта (ИИ) приводит к тому, что многие выпускники вузов не могут выполнять служебные обязанности без нейросетевых инструментов. При этом у них часто отсутствует базовое понимание знаний, которые они получили во время обучения.

О такой тенденции рассказал управляющий партнёр агентства по подбору кадров «А2» Алексей Чихачев в интервью ВГТРК. По его словам, у этого явления пока нет общепринятого названия, а сам он называет его «дипломированной беспомощностью».

«К нам приходят аналитики, маркетологи, юристы, кандидаты с дипломами из хороших вузов. Мы просим их объяснить без искусственного интеллекта, как они пришли к такому или иному выводу. Они разводят руками. Даёшь им ноутбук с интернетом — решают эту задачу, убираешь — и не справляются», — рассказал Алексей Чихачев.

Как отметил эксперт, при правильном использовании ИИ способен заметно усилить навыки сотрудника. Однако сейчас соискатели всё чаще пытаются не усилить свои компетенции с помощью ИИ, а заменить их нейросетевыми инструментами.

Ранее ВГТРК со ссылкой на данные опроса Работа.Ру сообщало, что до 40% соискателей используют ИИ для выполнения тестовых заданий. Из-за этого многие работодатели стали проводить собеседования строго офлайн.

В сфере ИБ, как отметили участники эфира AM Live «ИИ и машинное обучение в информационной безопасности: риски, сценарии и прогнозы», использование ИИ остаётся довольно ограниченным. Это связано, в частности, с вопросами ответственности за решения, принятые с помощью ИИ.

RSS: Новости на портале Anti-Malware.ru