ИИ обнаружил невидимый для антивирусов Linux-бэкдор GhostPenguin

ИИ обнаружил невидимый для антивирусов Linux-бэкдор GhostPenguin

ИИ обнаружил невидимый для антивирусов Linux-бэкдор GhostPenguin

Исследователи из Trend Micro сообщили об обнаружении нового скрытного бэкдора для Linux под названием GhostPenguin. На протяжении четырёх месяцев он находился в базе VirusTotal, но ни один антивирус при этом не детектировал файл вредоноса. Обнаружить его удалось только благодаря системе автоматического поиска угроз, использующей алгоритмы ИИ.

Впервые файл загрузили на VirusTotal 7 июля 2025 года. Но классические механизмы анализа не увидели ничего подозрительного.

 

Лишь когда ИИ-пайплайн Trend Micro выделил образец как атипичный, эксперты провели детальное исследование и выяснили, что внутри скрыт полноценный бэкдор.

GhostPenguin написан на C++ и работает как многопоточный инструмент удалённого управления Linux-системой. Вместо привычных TCP-соединений он использует собственный зашифрованный UDP-протокол на базе RC5, что делает коммуникацию менее заметной и затрудняет обнаружение.

 

Отдельные потоки отвечают за регистрацию и передачу данных, благодаря этому GhostPenguin остаётся работоспособным даже в случае зависания отдельных компонентов.

После запуска бэкдор проходит подготовительный цикл:

  • проверяет, не запущен ли он уже, используя PID-файл;
  • инициирует хендшейк с C2-сервером и получает Session ID, который далее служит ключом шифрования;
  • собирает данные о системе (IP-адрес, имя хоста, версию ОС вроде «Ubuntu 24.04.2 LTS», архитектуру) и отправляет их на сервер до получения подтверждения.

Исследование также показало, что GhostPenguin, вероятно, ещё в разработке. В коде нашли отладочные элементы, неиспользуемые функции, тестовые домены и даже опечатки — вроде «ImpPresistence» и «Userame». Похоже, авторы торопились или отлаживали раннюю версию.

Главный вывод Trend Micro: традиционные методы анализа пропустили GhostPenguin полностью, тогда как ИИ-подход позволил заметить аномалию. Этот случай, по словам исследователей, наглядно демонстрирует, насколько сложными становятся современные угрозы и почему стратегия их поиска должна развиваться дальше.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru