В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В RTM Group фиксируют рост активности мошенников, атакующих россиян с помощью дипфейков. В первый месяц 2024 года исследователи насчитали более 2 тыс. таких инцидентов.

Примерно в 70% случаев злоумышленники пытались с помощью голосовых дипфейков выманить деньги у граждан, выдавая себя за родственника, коллегу или знакомого. В атаках на сотрудников организаций использовались сгенерированные ИИ аудиосообщения руководителей, при этом обманщики требовали предоставить интересующую их информацию либо перевести крупную сумму на указанный счет.

Рост подобных злоупотреблений в RTM объясняют расширением доступа к ИИ-технологиям. В прошлом году в паблик были слиты алгоритмы для подмены голоса почти в реальном времени; также в интернете плодятся услуги по созданию дипфейков на основе образцов аудио- и видеозаписи.

Убедительные имитации известных личностей помогают мошенникам обирать доверчивых инвесторов, продвигая сомнительные проекты. В ВТБ также зафиксированы случаи подмены биометрии клиента (голоса) и кражи денег с помощью фейковой видеоконсультации банка.

«К сожалению, успешность была 100 из 100, — цитируют «Известия» выступление зампредправления ВТБ Вадима Кулика на Уральском форуме «Кибербезопасность в финансах». — К этому виду фрода мы пока не готовы, Здесь нужно будет создавать серию новых процессов и новых технологий».

В отсутствие специализированных решений на рынке банки пытаются защитить клиентов от дипфейк-атак посредством отслеживания аномалий (переводы больших сумм на незафиксированные ранее счета, оформление крупных кредитов). В таких случаях банк может приостановить операцию и уведомить клиента о рисках.

Минюст раскритиковал идею тюрьмы до 15 лет за мошенничество с ИИ

Минюст усомнился в законопроекте Минцифры, который предлагает считать использование искусственного интеллекта отягчающим обстоятельством при совершении мошенничества и других ИТ-преступлений. Основная претензия — слишком размытое определение ИИ, которое может привести к путанице и противоречивой судебной практике.

Это следует из заключения на законопроект, направленного замминистра юстиции Вадимом Федоровым в Минцифры.

Документ есть в распоряжении «Ведомостей». В Минюсте подтвердили, что провели правовую и антикоррупционную экспертизу и направили свои замечания разработчикам.

В Минцифры, в свою очередь, заявили, что законопроект уже доработан с учётом комментариев других ведомств, однако уточнять, какие именно изменения были внесены, не стали.

Несмотря на позицию Минюста, 12 января 2026 года законопроект был одобрен правительственной комиссией по законопроектной деятельности. По данным источников «Ведомостей», документ может быть внесён в Госдуму уже в ближайшие дни.

О планах ввести уголовную ответственность за преступления с использованием ИИ Минцифры говорило ещё летом 2025 года. Во втором пакете антимошеннических инициатив, например, говорилось о штрафах до 2 млн рублей или лишении свободы на срок до 15 лет. Теперь эти идеи оформлены в конкретные поправки в Уголовный кодекс.

Законопроект предлагает внести изменения сразу в несколько статей УК РФ — о краже, мошенничестве, вымогательстве и преступлениях в сфере компьютерной информации. В них появляется отдельный квалифицирующий признак: совершение преступления с использованием искусственного интеллекта.

Авторы инициативы объясняют её ростом дистанционных преступлений. В пояснительной записке указано, что в 2024 году было зарегистрировано более 485 тысяч преступлений по статьям о краже и мошенничестве, а ущерб от «дистанционных хищений» превысил 197 млрд рублей.

Главная претензия Минюста — в самом определении искусственного интеллекта. В законопроекте ИИ описывается как «комплекс технологических решений», способных имитировать когнитивные функции человека и выдавать сопоставимые результаты.

По мнению ведомства, такое определение слишком широкое. Его применение потребует обязательных экспертиз практически по каждому делу, что:

  • увеличит нагрузку на экспертные учреждения;
  • повысит расходы;
  • затянет сроки расследований и судебных процессов.

Кроме того, Минюст указывает на возможную конкуренцию новых норм с уже существующими статьями УК, регулирующими преступления в сфере компьютерной информации.

Юристы и специалисты по ИБ в целом разделяют опасения Минюста. По словам экспертов, под предлагаемое определение потенциально могут попасть не только нейросети и дипфейки, но и любые инструменты анализа данных — вплоть до обычного ПО, браузеров и даже антивирусов, если они используются преступником.

При этом эксперты признают: мошенники действительно всё активнее применяют ИИ — для создания реалистичных дипфейков, массового фишинга и автоматизированных звонков. Такие атаки становятся масштабнее, незаметнее и психологически опаснее для жертв.

Минцифры продолжает активно продвигать антифрод-инициативы — это уже второй пакет мер за год. Однако история с «ИИ как отягчающим обстоятельством» показывает, что регулирование новых технологий упирается не только в желание ужесточить наказание, но и в отсутствие чётких юридических рамок.

Если закон примут в текущем виде, ключевым вопросом станет не только борьба с мошенниками, но и то, как именно следствие и суды будут понимать, что считать искусственным интеллектом.

RSS: Новости на портале Anti-Malware.ru