В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

В даркнете предлагают дипфейки в режиме реального времени от 30 долларов

Эксперты «Лаборатории Касперского» выяснили, что в даркнете всё активнее предлагают услуги по созданию дипфейков — и не просто готовых роликов, а видео- и аудиоподделок в режиме реального времени. Стоимость таких услуг начинается от 50 долларов за видео и от 30 долларов за голосовую подмену.

Цена зависит от сложности и длительности материала. Для анализа использовались русскоязычные и англоязычные площадки, а также сервис Kaspersky Digital Footprint Intelligence.

Ранее объявления о продаже дипфейков на теневых форумах уже встречались, но теперь мошенники делают упор именно на работу «вживую». В объявлениях можно встретить самые разные варианты: замена лица во время видеозвонка через мессенджер или сервис для видеоконференций, подделка изображения для прохождения верификации, подмена картинки с камеры смартфона или виртуального устройства.

Продавцы обещают и более «продвинутые» инструменты — программы для синхронизации губ с любым текстом (в том числе на иностранных языках), а также средства для клонирования голоса, изменения тембра и эмоций. Но эксперты предупреждают: значительная часть подобных объявлений может оказаться обычным скамом — деньги возьмут, а результата не будет.

По словам Игоря Кузнецова, директора Kaspersky GReAT, на теневых площадках сегодня можно найти не только «дипфейк как услугу», но и спрос на такие предложения. Злоумышленники активно используют ИИ в своей работе, а местами даже разрабатывают собственные «вредоносные» языковые модели, работающие локально, без опоры на известные LLM. Такие технологии не создают принципиально новых угроз, но заметно расширяют возможности атакующих.

Эксперт отмечает: чтобы противостоять этой тенденции, специалистам по кибербезопасности придётся использовать всё более сложные инструменты. И как ни странно, но ответом на угрозы тоже может стать искусственный интеллект — уже в руках защитников.

Ранее мы отмечали, что сгенерированные изображения и видео зачастую выдают подделку по ряду характерных признаков: неестественные движения лица, отсутствие бликов и отражений в глазах, размытие или искажение контуров, особенно в области ушей и волос.

В прошлом месяце мы также писали, что в России всё шире распространяется мошенническая схема, в которой злоумышленники используют сгенерированные нейросетями видео с изображением родственников или знакомых потенциальной жертвы.

Злоумышленники научились использовать умные кормушки для слежки

Злоумышленники могут использовать взломанные умные кормушки для животных для слежки за владельцами. Для получения информации применяются встроенные в устройства микрофоны и видеокамеры. Получив несанкционированный доступ, атакующие способны наблюдать за происходящим в помещении и перехватывать данные.

Об использовании таких устройств в криминальных целях рассказал агентству «Прайм» эксперт Kaspersky ICS CERT Владимир Дащенко.

«Это уже не гипотетическая угроза: известны случаи взлома домашних камер, видеонянь, кормушек для животных и других умных приборов», — предупреждает эксперт.

По словам Владимира Дащенко, вопросам кибербезопасности таких устройств часто не уделяется должного внимания. Между тем любое оборудование с доступом в интернет может стать точкой входа для злоумышленников.

Скомпрометированные устройства могут использоваться и для атак на другие элементы домашней сети — например, смартфоны или компьютеры. Кроме того, они способны становиться частью ботнетов, применяемых для DDoS-атак или майнинга криптовалют. На подобные риски почти год назад обращало внимание МВД России.

Среди признаков возможной компрометации умных устройств эксперт называет самопроизвольные отключения, резкие изменения сетевой активности, появление сообщений об ошибках или другие нетипичные события.

RSS: Новости на портале Anti-Malware.ru