Появился новый вариант вымогателя GPCode

Появился новый вариант вымогателя GPCode

"Лаборатория Касперского" в лице своего антивирусного эксперта Николя Брюле сообщила о появлении новой модификации печально известного троянского шифровальщика GPCode. Представители этого семейства вредоносных программ используют исключительно надежные криптоалгоритмы, чтобы лишить пользователя доступа к содержимому мультимедийных файлов, документов и других объектов, после чего требуют заплатить за расшифровку данных.


Среди прочих вымогателей GPCode выделяется повышенной степенью опасности, так как выполняемые им действия потенциально могут привести к потере информации. Попав в систему и запустившись, образцы из этого семейства начинают поиск всех файлов с определенными расширениями, которые впоследствии зашифровываются при помощи чрезвычайно стойкого алгоритма RSA с длиной ключа в 1024 бит; взломать такую криптозащиту практически невозможно. Изображение рабочего стола при этом заменяется на картинку с текстом, в котором пользователю сообщают о закрытии доступа ко всем его данным и указывают, где искать инструкции по выплате "выкупа".

(изображение из первоисточника securelist.com)

В последний раз новый вариант GPCode появлялся в ноябре минувшего года. С тех пор злоумышленники изменили свои предпочтения в выборе платежных систем, перейдя на использование службы Ukash, а также увеличили вымогаемую сумму до 125 долларов США.

Возможности борьбы с этой инфекцией довольно ограничены. Подобрать ключ ко криптозащите, как уже было сказано, практически невозможно, поэтому дешифровать пораженные файлы нельзя. Г-н Брюле дает пользователям незамысловатый совет: при первом же появлении проиллюстрированного выше сообщения на рабочем столе немедленно нажать кнопку форсированной перезагрузки (Reset) или попросту обесточить компьютер. Шифрование - длительный процесс, поэтому, если быстро прервать работу вымогателя таким образом, то определенную часть данных можно будет сохранить в целости.

Что касается файлов, которые успеют подвергнуться обработке, то восстановить их можно будет только из резервных копий. Напомним, что для надежной защиты данных от повреждения нужно регулярно выполнять их архивирование; хранить бэкапы желательно на носителях, защищенных от перезаписи. Если объем информации слишком велик, подойдут и жесткие диски (например, внешние), но в таком случае их следует содержать отключенными от компьютера, подсоединяя лишь по мере необходимости.

Softpedia

Письмо автору

" />

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru