BlueNoroff запустила новые атаки с применением GenAI на криптокомпании

BlueNoroff запустила новые атаки с применением GenAI на криптокомпании

BlueNoroff запустила новые атаки с применением GenAI на криптокомпании

Эксперты Kaspersky GReAT опубликовали данные о новых кампаниях киберпреступной группы BlueNoroff, входящей в состав Lazarus. Две операции — GhostCall и GhostHire — активно проводятся с апреля 2025 года и нацелены на криптовалютные и Web3-организации.

В ходе атак злоумышленники используют единые инструменты и инфраструктуру, заражая устройства на macOS и Windows.

По сути, это продолжение масштабной кампании SnatchCrypto, в рамках которой BlueNoroff охотится за активами компаний, работающих с криптовалютами, DeFi-проектами и блокчейном.

GhostCall: атака через «видеозвонок»

GhostCall ориентирована на macOS-устройства. Злоумышленники действуют через Telegram, представляясь венчурными инвесторами. Иногда они используют взломанные аккаунты реальных предпринимателей, чтобы выглядеть убедительно.

Жертву приглашают на фальшивую онлайн-встречу, оформленную под Zoom или Microsoft Teams, где «для решения проблем со звуком» предлагают установить обновление. Вместо него на устройство загружается вредоносный скрипт.

Эксперты отмечают, что преступники даже включают заранее записанные видео прежних жертв, чтобы встреча выглядела реалистично. Полученные данные затем используются не только против конкретного человека, но и против его компании или партнёров по цепочке поставок.

GhostHire: атака под видом вакансии

В кампании GhostHire злоумышленники выдают себя за рекрутеров и рассылают блокчейн-разработчикам фальшивые вакансии. Чтобы «пройти тестовое задание», кандидат должен скачать репозиторий с GitHub — внутри которого скрыта вредоносная программа.

Если жертва подключается к телеграм-боту из объявления, ей приходит ZIP-архив или ссылка, и после запуска файлов система заражается.

Обе кампании используют одну инфраструктуру и схожие инструменты. Главная цель — кража криптовалюты, конфиденциальных данных и учётных записей.

Искусственный интеллект на службе злоумышленников

По данным Kaspersky, BlueNoroff активно применяет генеративный ИИ для разработки вредоноса и автоматизации атак. Это позволяет группе быстрее создавать новые образцы, улучшать код и обходить системы защиты.

«Теперь атакующие не просто крадут криптовалюту — они используют ИИ, чтобы точнее выбирать жертв и действовать масштабнее», — объяснил старший эксперт Kaspersky GReAT Омар Амин.

По словам Соджуна Рю, одного из исследователей GReAT, BlueNoroff выводит свои кампании на новый уровень:

«Мы видим сочетание социальной инженерии, технической сложности и высокой степени персонализации. Такие атаки направлены не только на людей, но и на всю цепочку поставок внутри криптоиндустрии».

Эксперты предупреждают, что появление GhostCall и GhostHire демонстрирует переход BlueNoroff от точечных атак к более комплексным операциям с элементами социальной инженерии и использованием ИИ.

Google упростила удаление личных данных и интимных фото из поиска

В интернете всегда найдётся кто-то, кто хочет узнать о вас больше, чем следовало бы. К счастью, у Google есть инструменты, которые помогают убрать лишнее из поисковой выдачи. Компания обновила сервис Results About You, который ищет и помогает удалить из выдачи страницы с вашими персональными данными.

Теперь инструмент умеет находить не только адреса и телефоны, но и номера документов, включая паспорт, водительские права и даже номер социального страхования (для США).

Чтобы система знала, что искать, пользователю нужно заранее добавить часть этих данных в настройках. Для водительских прав требуется полный номер, а для паспорта или SSN — только последние четыре цифры. После этого Google будет периодически сканировать выдачу и присылать уведомления, если найдёт совпадения.

Важно понимать: контент не исчезает из Сети полностью, но перестаёт отображаться в поиске Google, что для большинства пользователей уже существенно снижает риски.

Обновление коснулось и инструмента для удаления интимных изображений, опубликованных без согласия человека. Речь идёт как о реальных фото, так и о дипфейках и других сгенерированных ИИ материалах.

Теперь пожаловаться на такие изображения стало проще: достаточно нажать на три точки рядом с картинкой в поиске, выбрать «Удалить результат» и указать, что это интимное изображение. Google уточнит, настоящее это фото или дипфейк, а затем запустит проверку.

Кроме того, теперь можно добавлять сразу несколько изображений в одну заявку, что особенно актуально в эпоху, когда генеративный ИИ позволяют создавать подобный контент буквально за минуты.

Google также добавила возможность мониторинга: если функция включена, система будет автоматически отслеживать появление новых подобных изображений и предупреждать пользователя.

Поиск по ID уже доступен в Results About You. Обновлённый инструмент для удаления интимного контента начнёт появляться в ближайшие дни и будет постепенно распространяться на разные страны.

RSS: Новости на портале Anti-Malware.ru