CDN от Google используется для хранения вредоносных изображений

CDN от Google используется для хранения вредоносных изображений

CDN от Google используется для хранения вредоносных изображений

Киберпреступники скрывают свой вредоносный код внутри полей метаданных изображений, размещенных на официальной CDN (сеть доставки контента) компании Google — googleusercontent.com. Об этом сообщил Денис Синегубко, исследователь из компании Sucuri.

Обычно в этом домене размещаются изображения, загруженные на Blogger.com или в социальной сети Google+.

По словам Синегубко, ему удалось обнаружить вредоносную кампанию, в ходе которой злоумышленники использовали GoogleUserContent для размещения злонамеренного изображения.

В опубликованном отчете специалист объясняет, что кампания направлена в первую очередь на кражу токенов безопасности PayPal, что позволит мошенникам обойти систему аутентификации этой популярной платежной системы.

Преступники загружали изображение, размещенное на googleusercontent.com, а затем извлекали и выполняли код, который находился в поле метаданных «UserComment». Сам код представлял собой закодированную в Base64 строку, которая при декодинге превращалась в скрипт, который мог загружать веб-шелл на скомпрометированный сервер.

Затем мошенники могли использовать этот шелл для дефейса и отправки данных о зараженном сайте.

Здесь эксперт подчеркивает, что важнее всего не то, каким образом злоумышленники прятали код (этот способ давно известен, он применялся многими киберпреступными группами), а тот факт, что для его распространения они использовали CDN GoogleUserContent.

Синегубко столкнулся с проблемой — он не мог понять, как оповестить Google о новой технике кибермошенников. Есть форма, созданная для сообщений о нарушении авторских прав, но нет формы для уведомления о наличии вредоносных программ.

«Мы не совсем ясно, как сообщать о вредоносах в изображениях», — подчеркнул Синегубко.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru