Кибермошенники использовали ИИ, чтобы подделать голос гендира компании

Кибермошенники использовали ИИ, чтобы подделать голос гендира компании

Кибермошенники использовали ИИ, чтобы подделать голос гендира компании

Интересный способ мошенничества был отмечен в Британии — киберпреступники использовали искусственный интеллект, чтобы подделать голос генерального директора и заставить служащего перевести $230 000. Инцидент произошёл в марте.

Как пишет The Wall Street Journal, занимающий руководящую должность сотрудник британской энергетической компании думал, что разговаривает со своим начальником — генеральным директором материнской компании, расположенной в Германии.

Представившийся гендиректором человек попросил перевести средства венгерскому поставщику. При этом звонящий отметил, что перевод необходимо осуществить как можно скорее, так как ситуация не терпит отлагательства.

На проведение данной операции управляющему британской «дочкой» сотруднику дали всего час.

Правоохранительные органы совместно с экспертами в области ИИ-технологий пришли к выводу, что мошенники использовали искусственный интеллект для создания максимально точной иллюзии звонка от генерального директора.

Личности преступников на сегодняшний день не установлены. Известно лишь, что злоумышленники задействовали специальное программное обеспечение, позволившее достаточно точно передать немецкий акцент и «мелодию» голоса гендиректора.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru