Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

В Telegram появились группы ботов, которые активно ведут между собой дискуссии. За каждым таким ботом скрывается фейковый аккаунт с размещенными фишинговыми ссылками.

В отличие от примитивного спама, эти боты участвуют в сложных фишинговых кампаниях, нацеленных на кражу личных и платежных данных.

Они анализируют поведение пользователей и адаптируют свои действия, делая обман более убедительным.

«Групповая работа ботов значительно повышает доверие к их сообщениям, поскольку жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — тревожный сигнал, показывающий, как быстро злоумышленники осваивают современные технологии. Использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии», — прокомментировал для «Известий» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.

Как отметил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, комментарии таких ботов осмысленны, соответствуют теме публикации и не похожи на спам, поэтому не вызывают настороженности. Это увеличивает вероятность того, что пользователь заглянет в описание учетной записи и перейдет по фишинговой ссылке. По данным BI.ZONE Brand Protection, только в феврале 2025 года было выявлено около тысячи ресурсов, созданных для перехвата учетных записей Telegram.

Руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева предупреждает, что боты используются и в классических мошеннических схемах, направленных на кражу платежных данных через фальшивые страницы оплаты. Чтобы привлечь жертв, они публикуют объявления о продаже товаров по заниженным ценам или маскируются под маркетплейсы.

Боты также научились взаимодействовать друг с другом. Один может задать вопрос, а другой — сразу дать рекомендацию. Причем такие рекомендации могут быть не только текстовыми, но и голосовыми, сгенерированными с помощью технологий дипфейка.

Ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров отметил, что мошенники часто используют в качестве аватаров на фейковых аккаунтах фотографии реальных людей. При этом механизмов, способных предотвратить подобные действия, на данный момент не предусмотрено.

Руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина подчеркнула, что существующие инструменты для выявления искусственно созданных текстов крайне малоэффективны.

«Использование новых технологий приводит к стремительному росту распространенности и эффективности сложных мошеннических схем. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций увеличился на 74% по сравнению с 2023-м, превысив 27 млрд рублей», — резюмировал доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Половина россиян опасается использования своих дипфейк-двойников

Как показало исследование Контур.Толк и Контур.Эгида, половина опрошенных опасается, что мошенники могут сгенерировать их изображение с помощью нейросетей. При этом руководители и сотрудники на ключевых должностях подвержены такому риску особенно сильно.

В опросе Контур.Толк и Контур.Эгида приняли участие 1200 работающих россиян. По его данным, о существовании технологий дипфейков хотя бы слышали 60% респондентов.

Четверть участников отметили, что видели изображения знаменитостей, созданные ИИ. Еще 13% слышали о подобных случаях от знакомых, а 7% сталкивались с дипфейками лично.

По мнению 46% опрошенных, технологии дипфейков опасны для любого человека, поскольку мошенники могут использовать поддельные изображения, голоса и видео для обмана. 37% считают, что под наибольшим риском находятся знаменитости — блогеры, актёры и музыканты. 34% назвали уязвимой категорией политиков, а 28% — руководителей и сотрудников на ответственных должностях.

Только треть участников опроса признались, что не уверены в своей способности распознать дипфейк. Более половины (52%) уверены, что смогут отличить фальшивку от оригинала, а 16% абсолютно в этом уверены.

При проверке информации 31% сравнивают несколько источников, 20% уточняют данные у знакомых или коллег, 17% обращаются к официальным сайтам и аккаунтам компаний. Каждый шестой доверяет интуиции, а каждый четвёртый вовсе ничего не перепроверяет.

Роман Теплоухов, системный аналитик Контур.Толка и эксперт Центра ИИ в Контуре, отмечает:

«Всё больше бизнес-процессов переходит в онлайн, но сервисов видеосвязи недостаточно для точной идентификации собеседников. Топ-менеджерам и руководителям важно быть уверенными, что на совещании действительно присутствуют те, за кого себя выдают».

Даниил Бориславский, эксперт по информационной безопасности Контур.Эгиды и директор по продукту Staffcop, прокомментировал результаты исследования так:

«Почти половина опрошенных даже не догадывается о существовании дипфейков, что делает их самой уязвимой категорией для атак. Защищаться от угрозы, о которой не знаешь, невозможно. Ещё одна проблема — избыточное доверие: люди склонны верить знакомым лицам и голосам, и именно на этом строится социальная инженерия с использованием дипфейков. Радует, что базовые навыки проверки неожиданных запросов у людей начинают формироваться. Это значит, что бизнес может превратить сотрудников из потенциального слабого звена в надёжную линию обороны».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru