Silent Werewolf подкидывает шпионский стилер под видом защиты от атак

Silent Werewolf подкидывает шпионский стилер под видом защиты от атак

Silent Werewolf подкидывает шпионский стилер под видом защиты от атак

Каждая пятая кибератака на российские компании связана с кибершпионажем — цель злоумышленников не навредить, а незаметно вытащить ценные данные. При этом всё чаще используется самописный софт, нестандартные методы и ухищрения, чтобы усложнить работу аналитикам.

Весной 2025 года специалисты BI.ZONE зафиксировали две новые атаки группировки Silent Werewolf. Как обычно, группа «переоделась» — под каждую кампанию был разработан свой уникальный загрузчик, предназначенный для установки шпионской программы.

Фишинг с элементами иронии

Основным каналом доставки снова стали фишинговые письма, причем отправленные от имени реально существующих компаний. Некоторые жертвы получили вредоносный файл под видом… рекомендаций по кибербезопасности.

Сценарий был такой: если файл запускался на устройстве, принадлежащем интересной хакерам организации, он загружал вредоносную нагрузку. А если тот же файл попадал в руки исследователей или запускался в песочнице, вместо зловреда подгружался безобидный файл языковой модели LLaMA. Такой трюк затруднял анализ.

К началу расследования основная инфраструктура атаки уже была уничтожена — злоумышленники замели следы. Тем не менее, согласно характеру действий, эксперты предположили, что использовался самописный стилер XDigo, уже ранее связанный с этой группировкой.

Одна из мартовских кампаний была ориентирована исключительно на российские компании. Вторая — на организации в Молдове. Всего атаки были направлены примерно на 80 организаций, в том числе из таких отраслей, как атомная энергетика, авиа-, приборо- и машиностроение.

Как защититься

Более половины атак начинается с фишинговых писем, и это остаётся самой уязвимой точкой. Поэтому фильтрация входящей корреспонденции и внимательность при работе с вложениями остаются ключевыми мерами безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru