Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Злоумышленники взламывают аккаунты Telegram и от имени жертвы просят ее знакомых о материальной помощи. Для пущей убедительности просьба подкрепляется голосовым сообщением, созданным с помощью ИИ.

Для получения доступа к аккаунту используется одна из уже обкатанных мошеннических схем: фейковое голосование, онлайн-опрос, подарочная подписка на Telegram Premium. Голосовые обращения, призванные убедить собеседника в необходимости денежного перевода, генерируются на основе аудиозаписей, найденных у жертвы, и дублируются во все ее чаты.

Откликнувшимся доброхотам высылается сфальсифицированное фото банковской карты с именем и фамилией, соответствующими паспортным данным жертвы взлома. Авторы одной из таких атак просили «одолжить» 200 тыс. руб., в другом случае пользователь «ВКонтакте», купившись на дипфейк, потерял порядка 3 тыс. рублей.

В конце прошлого года с аналогичной мошеннической схемой столкнулись русскоязычные пользователи WhatsApp. Перенос ее в Telegram зафиксировали, в частности, эксперты ГК «Солар»; за последний месяц они выявили более 500 новых доменов, созданных мошенниками для сбора ключей от аккаунтов в мессенджере.

Опрошенные РБК специалисты сошлись во мнении, что для России подобные сложные атаки новы, и пользователям в таких случаях следует удостовериться, что неожиданная просьба исходит от их знакомца — например, перезвонить ему по телефону.

«Сейчас для пользователей нет технических решений уровня UEBA, с поведенческой аналитикой и поиском аномалий, — комментирует главный специалист отдела комплексных СЗИ компании «Газинформсервис» Дмитрий Овчинников. — Что касается социальных сетей и мессенджеров, то уверен, что они начнут применять поведенческую аналитику, основанную на ИИ, для защиты своих клиентов от подобного рода атак в ближайшее время. Думаю, что в течение ближайших 5-10 лет подобные решения по защите пользователей от вымогательских атак, сгенерированных ИИ, станут нормой жизни и будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений».

Рынок защиты ИИ в России к 2029 году может возрасти до 11 млрд рублей

В AppSec Solutions ожидают, что российский рынок средств защиты ИИ-систем будет расти в геометрической прогрессии. В 2026 году его объем превысит 1 млрд руб., а к 2029 году может составить 11 млрд рублей.

Прогнозы других аналитиков, с которыми ознакомился «Ъ», еще более оптимистичны: 3-4 млрд руб. в 2025 году, 25-30 млрд руб. в 2030-м.

Рынок защиты ИИ в России пока молод и ориентирован на B2B. Его развитие стимулируют осознание рисков, сопряженных с внедрением таких технологий, и рост числа угроз; наибольшим спросом пользуются средства анализа защищенности новомодных интеграций, способных нарушить безопасность корпоративных сетей.

Рынок GenAI в России тоже стремительно растет. По оценкам Onside и Just AI, в сравнении с прошлогодним показателем его объем возрос почти в пять раз и достиг 58 млрд руб., а к 2030 году может достичь 778 млрд рублей.

Как неоднократно отмечали эксперты, расширение использования ИИ породило новые риски. Зафиксированы утечки конфиденциальной информации, возможность ошибок в выдаче больших языковых моделей (БЯМ, LLM), манипуляции данными, используемыми для их обучения, а также случаи злонамеренного вмешательства в работу ИИ-систем.

В ходе беседы с журналистами представитель «Информзащиты» упомянул еще одну, совсем новую угрозу — маскировку кибератак под коммуникации LLM. По оценке ИБ-компании, новая уловка злоумышленников позволяет повысить скрытность целевых атак на 42%: мишени по умолчанию воспринимают LLM-трафик как доверенный, а традиционные меры защиты в применении к ИИ малоэффективны.

RSS: Новости на портале Anti-Malware.ru