Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Мошенники ускоряют профилирование мишеней с помощью ИИ

Авторы сложных сценариев отъема денег у юрлиц стали использовать ИИ, чтобы ускорить сбор данных о намеченных жертвах. В RTM Group зафиксировали сотни случаев хорошо подготовленных атак на малый и средний бизнес.

Сама мошенническая схема выглядит, как BEC-атака, только вместо имейл используются мессенджер (в данном случае Telegram) и телефонная связь. Применение ИИ, по оценке экспертов, позволило повысить эффективность обмана на 40%; при этом преступный доход ОПГ средней величины (10 участников) может ежедневно составлять от 1 млн до нескольких десятков млн рублей.

В ходе подготовки злоумышленники, вооружившись ИИ, собирают информацию из слитых в Сеть баз. Найдя совпадения по месту работы и совместным счетам, они разбивают мишени на пары: владелец – управляющий компании, гендиректор – его зам, директор – главбух и т. п.

Затем в Telegram создаются поддельные аккаунты лидеров каждой пары, и боты начинают слать сообщения от их имени, вовлекая подчиненных в диалог. В качестве темы обычно используются непорядочность знакомых / клиентов либо мифическая проверка со стороны правоохраны (к примеру, ФСБ).

Сообщения бота могут содержать фамилии реальных представителей госорганов, скриншоты специально составленных документов. После такой обработки следует звонок персоны, упоминавшейся в ходе беседы.

Лжеревизор начинает задавать вопросы о случаях мошенничества, долгах, неких платежах, пытаясь определить финансовую проблему, которую можно использовать как предлог для выманивания денег переводом на левый счет.

«Основной рекомендацией по минимизации рисков является постоянное внимание к деталям в ходе виртуального общения с партнерами по бизнесу и сотрудниками, особенно когда речь идет о проблемах с законом, переводах финансовых средств, проверках компетентных органов, — заявили эксперты «Известиям». — Также специалисты RTM Group рекомендуют не выкладывать в публичный доступ прямые контакты руководителей компаний и департаментов».

На днях мы анализировали «злые» аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT. Рассказали, в чём состоит опасность и как с нею бороться.

В Google Chrome теперь можно выключать ИИ-защиту от спама

Google продолжает аккуратно внедрять ИИ в Chrome и одновременно даёт пользователям чуть больше контроля. В браузере появилась возможность удалить локальные ИИ-модели, которые используются для работы функции Enhanced Protection («Расширенная защита»).

Сама Enhanced Protection существует в Chrome уже несколько лет, но в прошлом году Google тихо прокачала её с помощью ИИ.

Тогда компания заявила о «защите в реальном времени» от опасных сайтов, загрузок и расширений, не вдаваясь в подробности, как именно работает новый механизм.

Предположительно, ИИ помогает браузеру быстрее распознавать подозрительные паттерны — в том числе на сайтах, которые ещё не попали в чёрные списки Google. Кроме того, такая защита глубже анализирует загружаемые файлы и пытается выявить вредоносные признаки ещё до запуска.

Теперь стало известно главное: эти ИИ-модели хранятся прямо на устройстве пользователя. И при желании от них можно избавиться.

Как отметил пользователь Leo, в настройках Chrome появился новый переключатель. Чтобы удалить локальную ИИ-модель, достаточно зайти в Chrome → Настройки → Система и отключить пункт On-device GenAI. После этого браузер удаляет ИИ-компоненты, отвечающие за работу «умной» защиты.

 

Интересно, что, судя по формулировкам в интерфейсе, локальные ИИ-модели в Chrome будут использоваться не только для защиты от мошенничества и вредоносных сайтов. Похоже, Google готовит почву для других функций на базе локального ИИ — без постоянной передачи данных в облако.

Пока нововведение доступно в Chrome Canary, но, как обычно, через некоторое время оно должно добраться и до стабильной версии браузера.

RSS: Новости на портале Anti-Malware.ru