В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

Эксперты «Лаборатории Касперского» выяснили, что в даркнете всё активнее предлагают услуги по созданию дипфейков — и не просто готовых роликов, а видео- и аудиоподделок в режиме реального времени. Стоимость таких услуг начинается от 50 долларов за видео и от 30 долларов за голосовую подмену.

Цена зависит от сложности и длительности материала. Для анализа использовались русскоязычные и англоязычные площадки, а также сервис Kaspersky Digital Footprint Intelligence.

Ранее объявления о продаже дипфейков на теневых форумах уже встречались, но теперь мошенники делают упор именно на работу «вживую». В объявлениях можно встретить самые разные варианты: замена лица во время видеозвонка через мессенджер или сервис для видеоконференций, подделка изображения для прохождения верификации, подмена картинки с камеры смартфона или виртуального устройства.

Продавцы обещают и более «продвинутые» инструменты — программы для синхронизации губ с любым текстом (в том числе на иностранных языках), а также средства для клонирования голоса, изменения тембра и эмоций. Но эксперты предупреждают: значительная часть подобных объявлений может оказаться обычным скамом — деньги возьмут, а результата не будет.

По словам Игоря Кузнецова, директора Kaspersky GReAT, на теневых площадках сегодня можно найти не только «дипфейк как услугу», но и спрос на такие предложения. Злоумышленники активно используют ИИ в своей работе, а местами даже разрабатывают собственные «вредоносные» языковые модели, работающие локально, без опоры на известные LLM. Такие технологии не создают принципиально новых угроз, но заметно расширяют возможности атакующих.

Эксперт отмечает: чтобы противостоять этой тенденции, специалистам по кибербезопасности придётся использовать всё более сложные инструменты. И как ни странно, но ответом на угрозы тоже может стать искусственный интеллект — уже в руках защитников.

Ранее мы отмечали, что сгенерированные изображения и видео зачастую выдают подделку по ряду характерных признаков: неестественные движения лица, отсутствие бликов и отражений в глазах, размытие или искажение контуров, особенно в области ушей и волос.

В прошлом месяце мы также писали, что в России всё шире распространяется мошенническая схема, в которой злоумышленники используют сгенерированные нейросетями видео с изображением родственников или знакомых потенциальной жертвы.

Злоумышленники пытаются обойти защиту мессенджеров

Как сообщило Управление по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России (УБК МВД), злоумышленники начали использовать символы из разных алфавитов, необычные знаки и смешанный регистр, чтобы обходить автоматические системы защиты мессенджеров и маскировать массовые рассылки.

О такой тактике маскировки предупреждает официальный телеграм-канал УБК МВД «Вестник киберполиции России».

Однако, как иронизируют авторы канала, странные сочетания символов и хаотичный регистр сами по себе становятся одним из самых заметных признаков злонамеренной активности. Особенно если к сообщениям прикреплены APK-файлы или архивы, за которыми могут скрываться зловреды.

О вредоносной кампании по распространению трояна Mamont УБК МВД сообщало ещё в начале августа 2025 года. Тогда злоумышленники маскировали установочный файл зловреда под фото и видео. В феврале 2026 года Mamont начали распространять под видом ускорителя Telegram.

В начале марта злоумышленники начали переносить активность и на другие платформы, в частности на российскую МАКС. Причём речь идёт не об отдельных пользователях, а о целых сообществах — домовых, родительских, дачных и других чатах.

RSS: Новости на портале Anti-Malware.ru