Блогеров атакуют фейковые рекламодатели, ворующие учетки Telegram

Блогеров атакуют фейковые рекламодатели, ворующие учетки Telegram

Блогеров атакуют фейковые рекламодатели, ворующие учетки Telegram

Эксперты «Лаборатории Касперского» выявили новую мошенническую схему, нацеленную на угон аккаунтов Telegram. Злоумышленники предлагают русскоязычным блогерам рекламное сотрудничество и под этим предлогом заманивают их на фишинговый сайт.

Целевая атака начинается с обращения мифического представителя крупного онлайн-ретейлера. Придерживаясь стандартной процедуры делового общения, «менеджер» рассказывает об условиях партнерства: блогер может выбрать любые позиции, представленные на площадке, устроить распаковку для подписчиков, разместить ссылки на товары у себя в аккаунте.

В ходе диалога обговаривается стоимость рекламной интеграции. Если потенциальную жертву все устраивает, собеседник говорит, что озвученный выбор нужно согласовать с руководством. Переписка с фальшивым менеджером может длиться несколько дней.

В определенный момент блогера просят зарегистрироваться на сайте партнерской программы и дают ссылку. Поддельный ресурс, по словам аналитиков, выглядит правдоподобно: на нём размещены логотип, описание «партнерки» и бонусов, на которые могут рассчитывать участники.

На фишинговой странице нужно указать ФИО, имейл, номер телефона, число подписчиков и охваты канала. После этого происходит редирект на фальшивую форму авторизации в Telegram, где требуется ввести одноразовый код для входа в аккаунт. Чтобы обосновать необходимость такой информации, мошенники могут сослаться на некие новые требования закона о рекламе.

Украденные данные откроют им доступ к Telegram-аккаунту блогера и всем привязанным каналам. Впоследствии его могут использовать для шантажа, размещения стороннего контента или реализации других мошеннических схем.

«Блогерам приходят десятки рекламных предложений в день, поэтому они могут не заметить подвоха, — комментирует Ольга Свистунова, старший контент-аналитик в Kaspersky. — Злоумышленники, в свою очередь, разрабатывают легенды так, чтобы усыпить бдительность потенциальных жертв, например, ссылаются на нормативные акты и корпоративную политику. Однако просьба передать конфиденциальные данные, к которым относятся пароль и одноразовый код из СМС или push-уведомления, должна сразу насторожить».

Чтобы не стать жертвой подобного мошенничества, эксперты рекомендуют придерживаться следующих правил:

  • критически относиться к любым сообщениям и предложениям в Сети;
  • настроить в Telegram двухфакторную аутентификацию;
  • не переходить по ссылкам из сомнительных сообщений;
  • не передавать никому конфиденциальные данные, в том числе пароли от аккаунтов;
  • использовать надёжное защитное решение, которое предупредит о попытке перейти на фишинговый или скам-ресурс.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru