FraudGPT — новый ИИ-бот, помогающий готовить целевой фишинг

FraudGPT — новый ИИ-бот, помогающий готовить целевой фишинг

FraudGPT — новый ИИ-бот, помогающий готовить целевой фишинг

У киберпреступников появилась новая игрушка, опять связанная с генеративным искусственным интеллектом. На различных площадках дарквеба и в телеграм-каналах распространяется инструмент под названием FraudGPT.

Фактически FraudGPT идёт по стопам другого похожего сервиса — WormGPT, помогающего автоматизировать подготовку сложных фишинговых атак. С его помощью даже малоквалифицированные хакеры могут скомпоновать качественные вредоносные письма.

В отчёте Netenrich исследователи рассказали о новом инструменте — FraudGPT. Ракеш Кришнан, один из специалистов описал его так:

«Это ИИ-бот, специально заточенный под кибератаки. Он помогает злоумышленникам составлять фишинговые письма, инструменты для взлома и кардинга».

Авторы FraudGPT распространяют его как минимум с 22 июля 2023 года. Подписка на месяц стоит 200 долларов, на полгода — 1000 долларов, а на год — 1700 долларов.

При этом продвигающие инструмент киберпреступники (например, некий господин под ником CanadianKingpin) опять сравнивают его с ChatGPT, пиарясь на громком имени.

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru