Ложные клиенты нейросетей DeepSeek и Grok атакуют пользователей X

Ложные клиенты нейросетей DeepSeek и Grok атакуют пользователей X

Ложные клиенты нейросетей DeepSeek и Grok атакуют пользователей X

Эксперты «Лаборатории Касперского» выявили несколько кампаний по распространению вредоносных программ через сайты, имитирующие популярные нейросети — преимущественно DeepSeek и Grok. Зловредные ресурсы продвигаются через социальную сеть X (ранее Twitter).

Атаки были нацелены на пользователей из различных стран, включая Россию. Первая группа сайтов распространяла ранее неизвестный зловред типа стилер под видом клиента DeepSeek (версий V3 и R1).

На поддельных сайтах отсутствовал функционал чата, вместо этого пользователям предлагалось скачать архив с программой для Windows. После запуска загруженного файла стилер мог похищать данные из браузеров (cookie, сессии), логины и пароли от почты, игровых аккаунтов и других сервисов, а также информацию о криптокошельках. Позже злоумышленники изменили приманку, начав использовать нейросеть Grok, однако схема распространения зловреда не изменилась.

Вторая группа поддельных ресурсов использовала географическое ограничение: пользователям из России демонстрировалась заглушка, а при обращениях из Европы показывалась страница, имитирующая сайт DeepSeek, с предложением скачать программу или запустить чат-бот.

При выполнении любого действия на таких сайтах скачивался вредоносный инсталлятор, запускавший PowerShell-скрипт, который позволял злоумышленникам получить доступ к компьютеру жертвы.

Третья группа сайтов была ориентирована на продвинутых пользователей. Здесь зловред маскировался под фреймворк Ollama, предназначенный для локального запуска крупных языковых моделей вроде DeepSeek. Вместо заявленного инструмента устанавливался бэкдор, предоставляющий злоумышленникам удалённый доступ к устройству жертвы.

«В этих кампаниях примечательны как сами зловреды, так и методы распространения поддельных сайтов. Например, одна из ссылок была опубликована в соцсети X под видом сообщения от австралийской компании и набрала более миллиона просмотров, значительная часть репостов была сделана ботами. Для привлечения пользователей атакующие также применяют техники тайпсквоттинга, рекламные кампании через партнёрские программы и рассылку ссылок в мессенджерах», — отметил Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского».

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru