MyloBot утверждает, что застукал вас на порносайте, требует $2732

MyloBot утверждает, что застукал вас на порносайте, требует $2732

MyloBot утверждает, что застукал вас на порносайте, требует $2732

Анализ новой версии MyloBot, проведенный в ИБ-компании Minerva, показал, что за три года выполняемый в памяти Windows-зловред мало изменился. Он по-прежнему прилагает много усилий, чтобы остаться незамеченным, однако созданный на его основе ботнет используется лишь для шантажа по электронной почте.

Вредонос MyloBot впервые привлек внимание ИБ-экспертов в 2018 году — прежде всего богатым набором средств сокрытия от обнаружения. Обойти антивирусы ему помогает использование техники process hollowing (создание нового экземпляра запущенного процесса в состоянии ожидания и замена легитимного кода в памяти вредоносным).

Эти боты умеют выявлять исполнение под отладчиком, в виртуальной машине и песочнице, отключать встроенный антивирус Microsoft и помощника по обновлению Windows, выжидать две недели перед подключением к C2. Они также не терпят конкуренции и безжалостно прибивают exe-процессы, не связанные с работой ОС.

Датированный 2022 годом образец MyloBot, которого изучили израильтяне, отличается от предшественников отсутствием некоторых антидебаг- и антиВМ-функций, а также видоизмененной схемой внедрения вредоносного кода. Помимо классического process hollowing зловред также применяет еще две техники:

  • APC injection  (использует очередь асинхронного вызова процедур потока для выполнения полезной нагрузки в контексте svchost.exe) и
  • подмену DLL с помощью CreateRemoteThread (при вызове эта функция создает поток в адресном пространстве процесса, в данном случае любого 64-битного или notepad.exe).

К удивлению аналитиков, цель, которую преследовали операторы столь хитроумного зловреда, оказалась тривиальной: загруженный с C2-сервера финальный пейлоад попытался отослать спам-сообщение с требованием $2732 в биткоинах за уничтожение компромата, которым якобы владеет отправитель.

Автор письма утверждал, что ему удалось заразить компьютер адресата, когда тот зашел на порносайт, и в итоге получить компрометирующие видеозаписи (жертва во время просмотра порноконтента). В случае отказа платить шантажист грозился разослать эти материалы по всем контактам, украденным с помощью вредоноса из Facebook, мессенджера и email.

 

Анализ также показал, что MyloBot сохранил способность загружать и другие, дополнительные файлы. Видимо, ботоводы решили обеспечить себе бэкдор на случай продолжения атаки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru