В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В январе мошенники провели в России 2 тыс. атак с использованием дипфейков

В RTM Group фиксируют рост активности мошенников, атакующих россиян с помощью дипфейков. В первый месяц 2024 года исследователи насчитали более 2 тыс. таких инцидентов.

Примерно в 70% случаев злоумышленники пытались с помощью голосовых дипфейков выманить деньги у граждан, выдавая себя за родственника, коллегу или знакомого. В атаках на сотрудников организаций использовались сгенерированные ИИ аудиосообщения руководителей, при этом обманщики требовали предоставить интересующую их информацию либо перевести крупную сумму на указанный счет.

Рост подобных злоупотреблений в RTM объясняют расширением доступа к ИИ-технологиям. В прошлом году в паблик были слиты алгоритмы для подмены голоса почти в реальном времени; также в интернете плодятся услуги по созданию дипфейков на основе образцов аудио- и видеозаписи.

Убедительные имитации известных личностей помогают мошенникам обирать доверчивых инвесторов, продвигая сомнительные проекты. В ВТБ также зафиксированы случаи подмены биометрии клиента (голоса) и кражи денег с помощью фейковой видеоконсультации банка.

«К сожалению, успешность была 100 из 100, — цитируют «Известия» выступление зампредправления ВТБ Вадима Кулика на Уральском форуме «Кибербезопасность в финансах». — К этому виду фрода мы пока не готовы, Здесь нужно будет создавать серию новых процессов и новых технологий».

В отсутствие специализированных решений на рынке банки пытаются защитить клиентов от дипфейк-атак посредством отслеживания аномалий (переводы больших сумм на незафиксированные ранее счета, оформление крупных кредитов). В таких случаях банк может приостановить операцию и уведомить клиента о рисках.

Разработка новосибирских ученых снизит галлюцинации ИИ

В Новосибирском государственном университете разработали библиотеку, которая повышает точность и надёжность ответов нейросетей и помогает снизить количество «выдуманных» или заведомо недостоверных ответов — так называемых ИИ-галлюцинаций. Решение получило название RAGU (Retrieval-Augmented Graph Utility) и основано на использовании графов знаний, отражающих связи между различными элементами информации.

Такие графы помогают нейросетям лучше понимать контекст запросов и выявлять неочевидные зависимости. В рамках проекта они были интегрированы с большими языковыми моделями, что позволило повысить качество генерации ответов.

«Саму концепцию придумали не мы. Архитектура GraphRAG была предложена в статье Microsoft, опубликованной около года назад. Идея оказалась удачной, но мы увидели ряд недостатков — в частности, очень долгий процесс построения графа знаний и недетерминированный результат. Наш подход позволил ускорить работу и повысить её надёжность», — рассказал научный сотрудник лаборатории прикладных цифровых технологий Международного научно-образовательного математического центра НГУ Иван Бондаренко.

В отличие от оригинального подхода Microsoft, новосибирские исследователи применили многошаговый метод формирования графа знаний. Это позволило существенно ускорить процесс и снизить требования к вычислительным ресурсам. Если в исходной реализации использовалось порядка 32 млрд параметров, то в RAGU их число удалось сократить почти на два порядка — не только без потери качества, но и с его заметным улучшением.

Помимо специалистов НГУ, в проекте участвовали представители других российских вузов, включая МГУ, Балтийский федеральный университет имени Иммануила Канта, Университет науки и технологий МИСИС, Дальневосточный федеральный университет и Университет ИТМО.

Проект RAGU стал победителем в номинации «Инновации в области искусственного интеллекта» конкурса «Код без границ». Всего в конкурсе приняли участие более 200 проектов.

RSS: Новости на портале Anti-Malware.ru