Столичное ГУ МВД России предупреждает граждан о звонках роботов-мошенников

Столичное ГУ МВД России предупреждает граждан о звонках роботов-мошенников

Столичное ГУ МВД России предупреждает граждан о звонках роботов-мошенников

Телефонные мошенники всё больше полагаются на ботов при обзвоне потенциальных жертв. На этот раз представители столичного ГУ МВД России по Москве предупредили россиян об опасности выдать злоумышленникам все важные данные.

Голосовые роботы выступают первым рубежом, пытаясь сначала самостоятельно выведать у клиента банка всю необходимую информацию. Если же ботам не удаётся это сделать, они переключают гражданина на подставного сотрудника службы безопасности банка, который в разговоре пробует завершить начатое.

Интересно, что пресс-служба столичного ГУ МВД России в беседе с ТАСС назвала эту схему мошенничества новой, хотя ещё летом мы писали о том, что преступники стали прибегать к помощи роботов при обзвоне россиян.

Происходят такие обзвоны стандартно: потенциальной жертве поступает звонок якобы от банковского бота-помощника. Этот робот уведомляет гражданина о неких подозрительных операциях, которые происходят в личном кабинете владельца банковского счёта. Это может быть несанкционированный перевод денежных средств или оформление кредита.

После этого бот просит пользователя подтвердить осуществляемые операции, а если потенциальная жертва отказывается, её переводят на «сотрудника службы безопасности банка». Последний в разговоре пытается узнать все данные, используя психологические приёмы.

Правоохранители даже привели конкретный пример подобной телефонной атаки, в котором мошенникам удалось обмануть 32-летнюю девушку. Не сразу сообразив, что попалась на удочку злоумышленников, она уже по факту мошенничества обратилась в полицию. Ущерб в этом случае составил 2,1 млн рублей.

Эксперт компании «Газинформсервис» Григорий Ковшов рассказал, как распознать телефонного мошенника:

«Ввиду постоянного появления новых мошеннических схем не будет лишним знать основные признаки, которые помогут вам понять, что вы говорите со злоумышленниками: во-первых, человек на другом конце провода внезапно требует от вас принятия каких-либо быстрых решений; во-вторых, он слишком настойчив; в-третьих, собеседник проявляет повышенный интерес к вашим персональным данным.

Самое главное, что нужно знать, — никогда не следует сообщать личные данные по телефону подозрительным лицам, будь то роботы-банкиры или псевдосотрудники службы безопасности банка. Лучшая рекомендация в такой ситуации — прервите диалог, сославшись, например, на плохую связь, и уточните входящую информацию по горячей линии вашего банка».

Напомним, что в ноябре 2021 года стало известно, что доля звонков россиянам от роботов-мошенников выросла до 90%. Об этом сообщали представители кредитных организаций, которые мониторят мошенническую активность.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru