В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

Эксперты «Лаборатории Касперского» выяснили, что в даркнете всё активнее предлагают услуги по созданию дипфейков — и не просто готовых роликов, а видео- и аудиоподделок в режиме реального времени. Стоимость таких услуг начинается от 50 долларов за видео и от 30 долларов за голосовую подмену.

Цена зависит от сложности и длительности материала. Для анализа использовались русскоязычные и англоязычные площадки, а также сервис Kaspersky Digital Footprint Intelligence.

Ранее объявления о продаже дипфейков на теневых форумах уже встречались, но теперь мошенники делают упор именно на работу «вживую». В объявлениях можно встретить самые разные варианты: замена лица во время видеозвонка через мессенджер или сервис для видеоконференций, подделка изображения для прохождения верификации, подмена картинки с камеры смартфона или виртуального устройства.

Продавцы обещают и более «продвинутые» инструменты — программы для синхронизации губ с любым текстом (в том числе на иностранных языках), а также средства для клонирования голоса, изменения тембра и эмоций. Но эксперты предупреждают: значительная часть подобных объявлений может оказаться обычным скамом — деньги возьмут, а результата не будет.

По словам Игоря Кузнецова, директора Kaspersky GReAT, на теневых площадках сегодня можно найти не только «дипфейк как услугу», но и спрос на такие предложения. Злоумышленники активно используют ИИ в своей работе, а местами даже разрабатывают собственные «вредоносные» языковые модели, работающие локально, без опоры на известные LLM. Такие технологии не создают принципиально новых угроз, но заметно расширяют возможности атакующих.

Эксперт отмечает: чтобы противостоять этой тенденции, специалистам по кибербезопасности придётся использовать всё более сложные инструменты. И как ни странно, но ответом на угрозы тоже может стать искусственный интеллект — уже в руках защитников.

Ранее мы отмечали, что сгенерированные изображения и видео зачастую выдают подделку по ряду характерных признаков: неестественные движения лица, отсутствие бликов и отражений в глазах, размытие или искажение контуров, особенно в области ушей и волос.

В прошлом месяце мы также писали, что в России всё шире распространяется мошенническая схема, в которой злоумышленники используют сгенерированные нейросетями видео с изображением родственников или знакомых потенциальной жертвы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

Сотрудники и клиенты OpenAI начали получать письма, в которых утверждается, что аналитический сервис Mixpanel, который компания использовала на платформе для API (platform.openai.com), столкнулся с киберинцидентом. Как подчёркивает OpenAI, взлом произошёл не в её собственных системах — проблема возникла именно на стороне подрядчика.

По данным OpenAI, 9 ноября 2025 года Mixpanel обнаружил, что злоумышленник получил несанкционированный доступ к части внутренней инфраструктуры и выгрузил набор данных с идентификационной информацией пользователей.

25 ноября Mixpanel передал OpenAI копию затронутого массива, после чего компания начала рассылку уведомлений.

OpenAI уверяет, что никаких переписок, запросов к API, ключей, паролей, платёжных данных или документов пользователей злоумышленники не получили. Утечка затронула только «ограниченную аналитику», которая собиралась через браузер.

В набор попали:

  • имя, указанное в API-аккаунте;
  • адрес электронной почты;
  • примерная геолокация по браузеру (город, штат / регион, страна);
  • операционная система и браузер;
  • рефереры (сайты, откуда пользователь перешёл на платформу);
  • идентификаторы пользователя или организации в системе OpenAI.

После обнаружения проблемы OpenAI полностью отключила Mixpanel от продакшн-среды, проанализировала выгруженные данные и начала уведомлять всех затронутых администраторов и пользователей. Компания заявляет, что не видит признаков злоупотребления этими данными, но продолжает мониторинг.

В письме подчёркивается, что такие сведения могут быть использованы в фишинговых атаках или схемах социальной инженерии. Пользователям рекомендуют быть особенно внимательными к письмам, якобы пришедшим от OpenAI, и действовать только через официальные домены. Компания напоминает, что она никогда не запрашивает пароли, API-ключи или коды подтверждения через почту или мессенджеры.

OpenAI также объявила, что прекращает использовать Mixpanel и начинает пересматривать безопасности всех внешних подрядчиков, ужесточая требования по защите данных.

Пользователям предложено обратиться по вопросам к команде поддержки или на специальный адрес mixpanelincident@openai.com.

Напомним, OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru