Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Авторы сложных сценариев отъема денег у юрлиц стали использовать ИИ, чтобы ускорить сбор данных о намеченных жертвах. В RTM Group зафиксировали сотни случаев хорошо подготовленных атак на малый и средний бизнес.

Сама мошенническая схема выглядит, как BEC-атака, только вместо имейл используются мессенджер (в данном случае Telegram) и телефонная связь. Применение ИИ, по оценке экспертов, позволило повысить эффективность обмана на 40%; при этом преступный доход ОПГ средней величины (10 участников) может ежедневно составлять от 1 млн до нескольких десятков млн рублей.

В ходе подготовки злоумышленники, вооружившись ИИ, собирают информацию из слитых в Сеть баз. Найдя совпадения по месту работы и совместным счетам, они разбивают мишени на пары: владелец – управляющий компании, гендиректор – его зам, директор – главбух и т. п.

Затем в Telegram создаются поддельные аккаунты лидеров каждой пары, и боты начинают слать сообщения от их имени, вовлекая подчиненных в диалог. В качестве темы обычно используются непорядочность знакомых / клиентов либо мифическая проверка со стороны правоохраны (к примеру, ФСБ).

Сообщения бота могут содержать фамилии реальных представителей госорганов, скриншоты специально составленных документов. После такой обработки следует звонок персоны, упоминавшейся в ходе беседы.

Лжеревизор начинает задавать вопросы о случаях мошенничества, долгах, неких платежах, пытаясь определить финансовую проблему, которую можно использовать как предлог для выманивания денег переводом на левый счет.

«Основной рекомендацией по минимизации рисков является постоянное внимание к деталям в ходе виртуального общения с партнерами по бизнесу и сотрудниками, особенно когда речь идет о проблемах с законом, переводах финансовых средств, проверках компетентных органов, — заявили эксперты «Известиям». — Также специалисты RTM Group рекомендуют не выкладывать в публичный доступ прямые контакты руководителей компаний и департаментов».

На днях мы анализировали «злые» аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT. Рассказали, в чём состоит опасность и как с нею бороться.

Ростех: вирусное видео с Сергеем Чемезовым — подделка

В минувшие выходные в Сеть слили провокационное видео с участием гендиректора Ростеха Сергея Чемезова, которое быстро набрало свыше 100 репостов. Госкорпорация заявила, что это фейк, созданный с помощью ИИ.

Злоумышленники взяли за основу запись интервью Чемезова китайскому телеканалу CCTV и перенесли переделанный сценарий в Дубай. В итоге любители «жареного» с готовностью подхватили новый вброс, даже не удосужившись проверить источник.

Авторы фальшивки, по словам Ростеха, не только оклеветали его главу, но также попытались дискредитировать промышленность и финансовые власти России, посеяв недовольство в обществе.

 

«Этот инцидент – еще одно подтверждение того, что России необходимы законы, регулирующие сферу ИИ, — заявили в Ростехе. — Полагаем, что за использование технологий дипфейк во вред человеку, компании или стране должна быть уголовная ответственность, жесткая и соразмерная с ущербом, который хотели нанести злоумышленники».

В настоящее время определение дипфейка в российских законах отсутствует, и это большая проблема. Число атак с использованием ИИ-фальшивок растет, а граждане зачастую даже не имеют представления о новой уловке мошенников.

Власти пока лишь пытаются восполнить этот пробел, подправив УК. Так, Минцифры РФ предложило считать использование дипфейков обстоятельством, отягчающим преступления, а в Госдуме уже больше года обсуждают необходимость криминализации противоправного использования ИИ.

RSS: Новости на портале Anti-Malware.ru