Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

В Telegram появились группы ботов, которые активно ведут между собой дискуссии. За каждым таким ботом скрывается фейковый аккаунт с размещенными фишинговыми ссылками.

В отличие от примитивного спама, эти боты участвуют в сложных фишинговых кампаниях, нацеленных на кражу личных и платежных данных.

Они анализируют поведение пользователей и адаптируют свои действия, делая обман более убедительным.

«Групповая работа ботов значительно повышает доверие к их сообщениям, поскольку жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — тревожный сигнал, показывающий, как быстро злоумышленники осваивают современные технологии. Использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии», — прокомментировал для «Известий» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.

Как отметил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, комментарии таких ботов осмысленны, соответствуют теме публикации и не похожи на спам, поэтому не вызывают настороженности. Это увеличивает вероятность того, что пользователь заглянет в описание учетной записи и перейдет по фишинговой ссылке. По данным BI.ZONE Brand Protection, только в феврале 2025 года было выявлено около тысячи ресурсов, созданных для перехвата учетных записей Telegram.

Руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева предупреждает, что боты используются и в классических мошеннических схемах, направленных на кражу платежных данных через фальшивые страницы оплаты. Чтобы привлечь жертв, они публикуют объявления о продаже товаров по заниженным ценам или маскируются под маркетплейсы.

Боты также научились взаимодействовать друг с другом. Один может задать вопрос, а другой — сразу дать рекомендацию. Причем такие рекомендации могут быть не только текстовыми, но и голосовыми, сгенерированными с помощью технологий дипфейка.

Ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров отметил, что мошенники часто используют в качестве аватаров на фейковых аккаунтах фотографии реальных людей. При этом механизмов, способных предотвратить подобные действия, на данный момент не предусмотрено.

Руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина подчеркнула, что существующие инструменты для выявления искусственно созданных текстов крайне малоэффективны.

«Использование новых технологий приводит к стремительному росту распространенности и эффективности сложных мошеннических схем. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций увеличился на 74% по сравнению с 2023-м, превысив 27 млрд рублей», — резюмировал доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.

Фальшивый блокировщик рекламы для ChatGPT оказался аддоном-шпионом

OpenAI недавно начала тестировать рекламу в ChatGPT для части пользователей бесплатного тарифа, и уже появились желающие быстро заработать на новой теме. Исследователи из DomainTools обнаружили в Chrome Web Store вредоносное расширение ChatGPT Ad Blocker, которое обещало убрать рекламу из чат-бота, а на деле воровало пользовательские переписки.

OpenAI действительно в последние месяцы начала тесты рекламы в ChatGPT для части пользователей Free и Go, поэтому приманка выглядела вполне правдоподобно.

По данным DomainTools, расширение позиционировалось как «бесплатный и лёгкий» способ «убрать рекламу и оставить ИИ», но его основная задача была совсем другой.

После установки оно внедряло скрипт в страницу ChatGPT, копировало содержимое активного окна чата, сохраняло структуру переписки и большую часть текста, а затем отправляло этот дамп через жёстко прописанный Discord-вебхук в закрытый канал. Исследователи отдельно пишут, что таким образом утекали не только запросы пользователя, но и метаданные, и состояние интерфейса.

 

Аддон клонировал HTML страницы ChatGPT, убирал часть визуальных элементов вроде стилей и картинок, но оставлял текст и логику диалога. При этом редактировались только очень длинные текстовые фрагменты, а обычные промпты и ответы в большинстве случаев сохранялись целиком. DomainTools также указывает, что похищенные данные принимал Discord-бот с говорящим именем Captain Hook.

Отдельно исследователи связывают расширение с GitHub-аккаунтом krittinkalra, который, по их данным, пересекается с проектами AI4ChatCo и Writecream. На этом фоне авторы отчёта задаются вопросом: не используются ли похожие механики сбора данных и в других продуктах, связанных с этой же персоной. Прямых доказательств этого в отчёте нет, но сам сигнал имеется.

RSS: Новости на портале Anti-Malware.ru