Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

Мошенники объединяют ботов и повышают убедительность фишинга

В Telegram появились группы ботов, которые активно ведут между собой дискуссии. За каждым таким ботом скрывается фейковый аккаунт с размещенными фишинговыми ссылками.

В отличие от примитивного спама, эти боты участвуют в сложных фишинговых кампаниях, нацеленных на кражу личных и платежных данных.

Они анализируют поведение пользователей и адаптируют свои действия, делая обман более убедительным.

«Групповая работа ботов значительно повышает доверие к их сообщениям, поскольку жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — тревожный сигнал, показывающий, как быстро злоумышленники осваивают современные технологии. Использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии», — прокомментировал для «Известий» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.

Как отметил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, комментарии таких ботов осмысленны, соответствуют теме публикации и не похожи на спам, поэтому не вызывают настороженности. Это увеличивает вероятность того, что пользователь заглянет в описание учетной записи и перейдет по фишинговой ссылке. По данным BI.ZONE Brand Protection, только в феврале 2025 года было выявлено около тысячи ресурсов, созданных для перехвата учетных записей Telegram.

Руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева предупреждает, что боты используются и в классических мошеннических схемах, направленных на кражу платежных данных через фальшивые страницы оплаты. Чтобы привлечь жертв, они публикуют объявления о продаже товаров по заниженным ценам или маскируются под маркетплейсы.

Боты также научились взаимодействовать друг с другом. Один может задать вопрос, а другой — сразу дать рекомендацию. Причем такие рекомендации могут быть не только текстовыми, но и голосовыми, сгенерированными с помощью технологий дипфейка.

Ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров отметил, что мошенники часто используют в качестве аватаров на фейковых аккаунтах фотографии реальных людей. При этом механизмов, способных предотвратить подобные действия, на данный момент не предусмотрено.

Руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина подчеркнула, что существующие инструменты для выявления искусственно созданных текстов крайне малоэффективны.

«Использование новых технологий приводит к стремительному росту распространенности и эффективности сложных мошеннических схем. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций увеличился на 74% по сравнению с 2023-м, превысив 27 млрд рублей», — резюмировал доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.

Россияне получат право отказаться от услуг с ИИ

Россияне могут получить право отказываться от услуг с использованием искусственного интеллекта (ИИ) и требовать их оказания без привлечения нейросетевых инструментов. Такая норма содержится в законопроекте, разработанном Минцифры и регулирующем использование ИИ в России.

О наличии этой нормы сообщили «Известия» со ссылкой на свои источники. Сейчас документ проходит процедуры согласования. Ориентировочно он может вступить в силу 1 сентября 2027 года.

При этом в версии документа, оказавшейся в распоряжении «Известий», механизмы реализации права на отказ от ИИ не прописаны. Хотя, как утверждают источники издания, в более ранних редакциях они присутствовали. По их мнению, по мере доработки документа эти положения могут быть возвращены.

«Развитие перспективных технологий, в том числе искусственного интеллекта, — одно из важных направлений деятельности ведомства. При этом любая технология должна применяться исключительно с соблюдением прав и интересов граждан», — прокомментировали документ в пресс-службе Минцифры.

В министерстве также подчеркнули, что документ пока находится на стадии согласования, поэтому его содержание ещё может измениться.

«Необходимость введения данной нормы продиктована стремлением обеспечить законное право потребителя на выбор формата взаимодействия, включая живое общение. Проект документа закрепляет функцию человеческого контроля, что особенно важно в социально значимых сферах», — прокомментировал эту норму ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов.

По его мнению, в первую очередь речь может идти о ситуациях, где цена возможной ошибки особенно высока или требуется учитывать уникальные обстоятельства. Кроме того, отказ от ИИ может быть востребован там, где человеку важно общение с живым специалистом, например, в стрессовых ситуациях, когда формальные ответы автоинформатора неуместны. Наконец, для некоторых пользователей, особенно не имеющих опыта взаимодействия с ИИ, такой формат может создавать дополнительные трудности, а не помогать.

В то же время директор Института исследования интернета Карен Казарян назвал эту норму «сырой» и недостаточно проработанной. По его оценке, для ряда компаний её исполнение может обернуться значительными издержками из-за необходимости резко расширять штат контакт-центров, а следствием этого может стать рост цен и тарифов. В зону риска он отнёс операторов связи, авиакомпании и банки. По его мнению, важно создать такие условия, при которых оператор сможет быстро исправить ошибку.

Руководитель направления «Разрешение IT&IP-споров» фирмы «Рустам Курмаев и партнёры» Ярослав Шицле считает, что законопроект пытается очертить принципы добросовестных отношений между исполнителем и заказчиком на фоне расширения сфер применения ИИ. По его мнению, на законодательном уровне может быть предусмотрена обязанность получать согласие на использование ИИ — по аналогии с согласием на сбор и обработку персональных данных.

«В сервисе необходимо соблюдать баланс между роботизацией и привлечением операторов. Действительно, есть группы пользователей, которым может быть сложно взаимодействовать с ИИ, — это люди с инвалидностью, а также пользователи в возрасте от 60–65 лет и старше. Для них можно сохранить возможность отказаться от систем на базе ИИ, — отметила официальный представитель оператора Т2 Дарья Колесникова. — Роботов ценят за скорость решения вопросов. Отказ от них привёл бы к замедлению обслуживания и ухудшению клиентского опыта. Хотелось бы, чтобы новое регулирование не обернулось необоснованным запретом на использование нейросетей в сервисе».

«Для нас важно обеспечивать прозрачность и не вводить потребителей в заблуждение. Искусственный интеллект уже стал неотъемлемой частью сервисов в нашей индустрии, поэтому при регулировании его применения принципиально важно не допустить ухудшения пользовательского опыта», — прокомментировали в пресс-службе Wildberries&Russ. Там также назвали использование ИИ частью комплексной технологической стратегии развития компании.

Как напомнил партнёр ComNews Research Леонид Коник, уже сейчас в ЕС и Южной Корее действует требование предупреждать потребителей об использовании ИИ. В частности, компании обязаны уведомлять клиентов об обслуживании с помощью ИИ-сервисов, если это не очевидно, например, когда взаимодействие происходит через голосовых чат-ботов.

Регулирование должно быть чётким, чтобы не оставлять пространства для разночтений и не блокировать использование искусственного интеллекта как такового, считает генеральный директор TelecomDaily Денис Кусков. По его оценке, положения, связанные с отказом от использования ИИ, требуют детальной проработки действий обеих сторон. При этом, подчёркивает он, избыточное регулирование в этой сфере недопустимо.

RSS: Новости на портале Anti-Malware.ru