Мошенники вынуждают своих жертв атаковать инфраструктуру

Мошенники вынуждают своих жертв атаковать инфраструктуру

Мошенники вынуждают своих жертв атаковать инфраструктуру

Злоумышленники, используя методы социальной инженерии, массово заставляют жертв атаковать объекты инфраструктуры. Только за минувшие выходные около 20 человек задержаны за поджоги отделений банков, почты и торговых центров.

Как обращает внимание телеграм-канал «Вестник киберполиции России», основной целевой аудиторией злоумышленников являются те, кто уже пострадал от деятельности мошенников.

Их с помощью психологических манипуляций заставляли бросать петарды, бутылки с зажигательной смесью в торговых центрах, банках, отделениях почты в Москве и Санкт-Петербурге, а также пытаться поджечь полицейские автомобили.

По данным, собранным «Известиями», факты поджогов зафиксированы в Москве, Подмосковье, Красноярске, Пскове, Санкт-Петербурге, ряде городов Ленинградской области.

«Профессиональная ложь, комбинация психологических приемов и мотивация получением или возвратом денег — все это используют злоумышленники для достижения своих целей. Попавшие на крючок люди не только продавали квартиры, поджигали банкоматы, но и инсценировали собственные похищения», — говорится в официальном сообщении Управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.

Корреспондентам «Известий» удалось связаться с дочерью одного из тех, кто под воздействием злоумышленников поджег два банкомата в Санкт-Петербурге. Супруга поджигателя стала жертвой мошенников, которую вынудили перевести все сбережения на «безопасный счет».

«Они (злоумышленники) три дня обрабатывали маму, что надо спалить банкомат, чтобы замести следы перевода денег. Мама на это сказала: «Я на такое и под расстрелом не пойду», — рассказала собеседница издания.

После этого мошенники начали убеждать мужа женщины, который в итоге и стал поджигателем. Он также несколько лет назад стал жертвой мошенников.

Руководитель практики уголовно-правовой защиты юридической компании «Институт УДО» Игорь Ивлев также в комментарии для «Известий» обратил внимание на то, что злоумышленники могут вынуждать людей совершать нужные им действия, представляясь сотрудниками правоохранительных органов. При этом поджог якобы является частью оперативно-разыскных мероприятий.

«В лучшем случае исполнителя ожидает обвинение в хулиганстве с использованием предметов в качестве оружия — наказание до семи лет, — отметила в комментарии для «Известий» практикующий юрист Зара Горбушина. — Однако, в зависимости от масштабов ущерба, количества жертв и других отягчающих обстоятельств, наказание может быть значительно строже, вплоть до обвинения в терроризме. Российское законодательство не освобождает от ответственности лиц, совершивших преступление под влиянием третьих лиц, даже при наличии значительного психологического давления».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru