Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Пользователей Telegram атакуют мошенники с голосовыми дипфейками

Злоумышленники взламывают аккаунты Telegram и от имени жертвы просят ее знакомых о материальной помощи. Для пущей убедительности просьба подкрепляется голосовым сообщением, созданным с помощью ИИ.

Для получения доступа к аккаунту используется одна из уже обкатанных мошеннических схем: фейковое голосование, онлайн-опрос, подарочная подписка на Telegram Premium. Голосовые обращения, призванные убедить собеседника в необходимости денежного перевода, генерируются на основе аудиозаписей, найденных у жертвы, и дублируются во все ее чаты.

Откликнувшимся доброхотам высылается сфальсифицированное фото банковской карты с именем и фамилией, соответствующими паспортным данным жертвы взлома. Авторы одной из таких атак просили «одолжить» 200 тыс. руб., в другом случае пользователь «ВКонтакте», купившись на дипфейк, потерял порядка 3 тыс. рублей.

В конце прошлого года с аналогичной мошеннической схемой столкнулись русскоязычные пользователи WhatsApp. Перенос ее в Telegram зафиксировали, в частности, эксперты ГК «Солар»; за последний месяц они выявили более 500 новых доменов, созданных мошенниками для сбора ключей от аккаунтов в мессенджере.

Опрошенные РБК специалисты сошлись во мнении, что для России подобные сложные атаки новы, и пользователям в таких случаях следует удостовериться, что неожиданная просьба исходит от их знакомца — например, перезвонить ему по телефону.

«Сейчас для пользователей нет технических решений уровня UEBA, с поведенческой аналитикой и поиском аномалий, — комментирует главный специалист отдела комплексных СЗИ компании «Газинформсервис» Дмитрий Овчинников. — Что касается социальных сетей и мессенджеров, то уверен, что они начнут применять поведенческую аналитику, основанную на ИИ, для защиты своих клиентов от подобного рода атак в ближайшее время. Думаю, что в течение ближайших 5-10 лет подобные решения по защите пользователей от вымогательских атак, сгенерированных ИИ, станут нормой жизни и будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru