Вредонос LummaC2 использует тригонометрию для детектирования песочниц

Вредонос LummaC2 использует тригонометрию для детектирования песочниц

Вредонос LummaC2 использует тригонометрию для детектирования песочниц

Вредоносная программа LummaC2 (она же Lumma Stealer), ворующая данные пользователей, обзавелась новыми интересными функциями: для ухода от песочницы и извлечения конфиденциальной информации из хоста зловред использует тригонометрию.

Как отмечают исследователи из Outpost24, описанный метод помогает операторам заморозить активацию вредоноса до обнаружения активности мыши.

LummaC2, написанная на C, продается на форумах для киберпреступников с декабря 2022 года. Авторы трояна периодически расширяют его функциональные возможности. Особое внимание разработчики уделяют методам антианализа.

Текущая версия LummaC2, получившая номер v4.0, требует от операторов использования криптора в качестве дополнительной меры сокрытия. Это помогает бороться с утечкой кода вредоноса.

Кроме того, новый семпл продемонстрировал использование тригонометрии для обнаружения действия человека на атакованном хосте.

«Новая техника, которую задействует вредонос, полагается на позиции курсора мыши, которые вычисляются за короткий промежуток времени — это помогает выявить активность человека. Благодаря такому подходу зловред не активирует свои функции при работе в среде для анализа, которая, как правило, не очень реалистично эмулирует движения мышью», — объясняют специалисты.

Для этого LummaC2 берет интервал в 300 миллисекунд и проверяет с такой периодичностью позицию курсора. Этот процесс будет повторяться до момента, пока пять последовательных позиций курсора (P0, P1, P2, P3 и P4) не будут отличаться.

 

Положения курсора зловред рассматривает в качестве векторов, вычисляя угол, который получается между двумя последовательными векторами (P01-P12, P12-P23 и P23-P34).

 

«Если все высчитанные углы ниже 45 градусов, LummaC2 v4.0 убеждается в том, что мышью двигает человек. После этого активируются вредоносные функции», — подытоживают эксперты.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

77% корпоративных пользователей вставляют личные данные в запросы к ChatGPT

Согласно новому исследованию компании LayerX, всё больше сотрудников корпораций отправляют в ChatGPT личные и платёжные данные — от номеров карт до информации, по которой можно идентифицировать человека. И нередко делают это с личных, незащищённых аккаунтов, что превращает ИИ-инструменты в потенциальный канал утечки данных.

Отчёт Enterprise AI and SaaS Data Security 2025 отмечает, что 45% сотрудников компаний уже используют генеративный ИИ, а 77% из них копируют и вставляют данные прямо в запросы к чат-ботам. Более чем в 20% случаев среди этих данных встречается персональная или платёжная информация.

LayerX фиксирует такие взаимодействия через корпоративное браузерное расширение, которое отслеживает активность в веб-приложениях. По его данным, 82% всех вставок происходят из личных, неуправляемых аккаунтов, что делает их полностью невидимыми для систем безопасности компании.

Руководитель LayerX Ор Эшед в комментарии для The Register напомнил, что подобные инциденты уже случались: например, в 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как один из них случайно загрузил в чат фрагменты внутреннего кода.

По словам Эшеда, такие утечки могут не только повлечь нарушения регламентов, но и вызвать геополитические риски — если данные попадают в зарубежные ИИ-модели, включая китайские.

Интересно, что при этом ChatGPT стал де-факто стандартом корпоративного ИИ. По данным LayerX, более 90% сотрудников, использующих ИИ, обращаются именно к ChatGPT. Для сравнения: Google Gemini используют 15%, Claude — 5%, а Microsoft Copilot — всего 2–3%.

Сама Microsoft недавно удивила многих, заявив, что поддержит использование личных Copilot-аккаунтов в корпоративных средах Microsoft 365 — фактически легализуя «теневые» ИТ-практики, когда сотрудники пользуются неофициальными инструментами.

В целом использование генеративного ИИ в корпоративных сетях растёт: сейчас такие сервисы занимают около 11% всего трафика приложений — почти столько же, сколько почта и онлайн-встречи (по 20%), и больше, чем Slack или Salesforce.

Эксперты LayerX предупреждают: пока пользователи массово несут данные в ChatGPT, CISO-командам стоит уделить внимание SSO и централизованной аутентификации. Без этого контролировать потоки данных и предотвратить утечки становится почти невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru