В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В RTM Group фиксируют рост активности мошенников, атакующих россиян с помощью дипфейков. В первый месяц 2024 года исследователи насчитали более 2 тыс. таких инцидентов.

Примерно в 70% случаев злоумышленники пытались с помощью голосовых дипфейков выманить деньги у граждан, выдавая себя за родственника, коллегу или знакомого. В атаках на сотрудников организаций использовались сгенерированные ИИ аудиосообщения руководителей, при этом обманщики требовали предоставить интересующую их информацию либо перевести крупную сумму на указанный счет.

Рост подобных злоупотреблений в RTM объясняют расширением доступа к ИИ-технологиям. В прошлом году в паблик были слиты алгоритмы для подмены голоса почти в реальном времени; также в интернете плодятся услуги по созданию дипфейков на основе образцов аудио- и видеозаписи.

Убедительные имитации известных личностей помогают мошенникам обирать доверчивых инвесторов, продвигая сомнительные проекты. В ВТБ также зафиксированы случаи подмены биометрии клиента (голоса) и кражи денег с помощью фейковой видеоконсультации банка.

«К сожалению, успешность была 100 из 100, — цитируют «Известия» выступление зампредправления ВТБ Вадима Кулика на Уральском форуме «Кибербезопасность в финансах». — К этому виду фрода мы пока не готовы, Здесь нужно будет создавать серию новых процессов и новых технологий».

В отсутствие специализированных решений на рынке банки пытаются защитить клиентов от дипфейк-атак посредством отслеживания аномалий (переводы больших сумм на незафиксированные ранее счета, оформление крупных кредитов). В таких случаях банк может приостановить операцию и уведомить клиента о рисках.

В OpenClaw нашли опасный сценарий незаметной утечки данных

Специалисты нашли проблемы у ИИ-агента OpenClaw: китайский центр реагирования на компьютерные инциденты CNCERT указал на слабые настройки безопасности по умолчанию и риски инъекции промпта, когда внешнее содержимое незаметно подсовывает агенту вредоносные инструкции.

Но самое неприятное в этой истории даже не сама по себе «путаница» модели, а то, во что она может превратиться на практике.

Исследователи показали сценарий, при котором обычная работа ИИ-агента превращается в незаметный канал утечки данных, причём безо всяких кликов со стороны пользователя.

Схема выглядит так: злоумышленник прячет вредоносные инструкции в веб-странице или во внешнем контенте, который OpenClaw должен прочитать. Агент обрабатывает этот текст и под его влиянием формирует ссылку, в адрес которой уже встроены конфиденциальные данные — например, фрагменты информации, к которым у него есть доступ.

Дальше происходит самое коварное. Если OpenClaw отправляет такую ссылку пользователю через Telegram, Discord или другой мессенджер, сама платформа может автоматически создать предпросмотр ссылки, а это уже вызывает фоновый запрос к серверу атакующего.

В итоге злоумышленник получает данные просто из логов своего сервера без нажатия на ссылку, без дополнительного действия и вообще почти без шума. Именно поэтому история выглядит особенно серьёзно: проблема лежит не только в модели, а в архитектуре всего окружения.

OpenClaw ценят за то, что он умеет читать локальные файлы, выполнять задачи и работать с разными сервисами. Но ровно эта же полезность делает компрометацию куда болезненнее: если агенту дали широкий доступ, то и последствия инъекции промпта становятся вполне реальными.

CNCERT как раз предупреждал, что при неправильной установке и избыточных правах OpenClaw может создавать серьёзные риски для безопасности и данных. На этом фоне власти Китая уже начали ограничивать использование OpenClaw в ряде чувствительных сред, включая государственные системы и отдельные организации.

RSS: Новости на портале Anti-Malware.ru