Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Эксперты уговорили DeepSeek создать кейлоггер и шифровальщика

Исследователи из Tenable убедились в том, что защиту DeepSeek R1 от злоупотреблений можно обойти и заставить ИИ-помощника сгенерировать, а потом улучшить вредоносный код,— нужно лишь найти нужные слова и следить за его «ходом мысли».

Для обхода ограничений DeepSeek экспериментаторы использовали джейлбрейк, перефразируя запросы, которые чат-бот отказывался выполнять. Улучшить результаты помогла способность ИИ-модели имитировать человеческое мышление — строить рассуждения на основе цепочек логических выводов (Chain-of-Thought).

Испытания проводились по двум сценариям. Вначале DeepSeek обманом заставили создать кейлоггер; выстроив план выполнения задачи, собеседник в итоге выдал код на C++ для отслеживания нажатия клавиш с записью в локальный файл.

Образец работал некорректно из-за допущенных ошибок, которые ИИ-ассистент сам не смог исправить. Поскольку он поэтапно отчитывался о ходе выполнения задачи, эксперты сумели внести корректуру, а заодно попросили написать дополнительные коды для инъекции DLL и шифрования лог-файла.

Таким же образом с помощью DeepSeek были созданы несколько семплов шифровальщика, однако они не компилировались, и правки пришлось вносить вручную. После ряда усовершенствований под руководством экспертов ИИ выдал рабочий код, умеющий перечислять файлы, шифровать данные, закрепляться в системе и выводить диалоговое окно с сообщением для жертвы.

По результатам испытаний был сделан ожидаемый вывод: умножение числа ИИ-сервисов снизило планку для неумелых вирусописателей. Вредоносные коды, которые можно создать с помощью DeepSeek, несовершенны и примитивны, но их можно доработать, используя его коллекцию техник и поисковых ключей.

Злоумышленники все чаще применяют ИИ для создания зловредов и планирования атак. Они также создают свои ИИ-модели, лишенные всяких ограничений.

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

RSS: Новости на портале Anti-Malware.ru