ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

Специалисты проанализировали три быстроразвивающихся направления в сфере искусственного интеллекта — агентский ИИ (agentic AI), ИИ на периферийных устройствах (edge AI) и квантовый ИИ (quantum AI). Каждое из них открывает новые возможности, но при этом создаёт новые риски: от утечек данных и сбоев в работе систем до аварий и подмены биометрии.

Агентский ИИ: умный помощник с уязвимостями

Агентский ИИ — это автономные системы, которые анализируют данные, принимают решения и могут взаимодействовать с другими сервисами без участия человека.

По оценкам Gartner, к 2028 году такие решения смогут автоматизировать до 15% повседневных задач в бизнесе.

Но у этой автоматизации есть и оборотная сторона. Если злоумышленники вмешаются в работу агента — например, подменят данные или внедрят вредоносный код в систему — он начнёт принимать неправильные решения. Это может привести к сбоям в работе компаний, нарушению безопасности и другим последствиям. В некоторых случаях ИИ может даже начать действовать в интересах атакующего, не осознавая этого.

Edge AI: когда ИИ прямо в устройстве

Появление большого числа устройств интернета вещей (IoT) ускорило развитие edge AI — систем, которые обрабатывают данные прямо на устройстве, без постоянного подключения к облаку. Это важно, например, для медицины или транспорта, где задержки недопустимы.

Однако такие устройства часто уязвимы: они могут использовать устаревшее ПО, быть слабо защищены или использовать небезопасные настройки. Кроме того, они подвержены сетевым атакам (например, DDoS, спуфинг или «человек посередине»), а сами ИИ-модели — манипуляциям с входными данными. Всё это может привести к утечкам информации или сбоям в работе систем.

Квантовый ИИ: пока экзотика, но с серьёзными рисками

Квантовые технологии только начинают внедряться в ИИ, но уже рассматриваются для задач в медицине, логистике, энергетике и других отраслях. Они позволяют быстрее обрабатывать сложные задачи и требуют меньше энергии, чем классические суперкомпьютеры.

На практике такие системы чаще всего доступны через облачные платформы. Это означает, что возможны атаки на инфраструктуру провайдеров: кража архитектуры моделей, обучающих данных или внедрение уязвимостей на этапе обучения. Вред может быть серьёзным — от ошибок в медицинских ИИ до некорректного распознавания подозрительных операций в финансах. Кроме того, квантовые технологии могут усиливать старые методы атак — например, ускорять взлом паролей.

Хотя сейчас хакеры чаще используют проверенные схемы, эксперты считают, что это может быстро измениться. Поэтому важно не просто защищать сами ИИ-модели, но и учитывать, как они взаимодействуют с бизнес-процессами. Нужно ограничивать доступ ИИ к конфиденциальной информации, внедрять контрольные механизмы и обучать сотрудников — иначе даже самая современная технология может стать уязвимостью.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ряды беспринципных ИИ-кодеров пополнились WormGPT 4 и KawaiiGPT

В Palo Alto Networks опробовали ИИ-новинки черного рынка — коммерческую модель WormGPT 4 и бесплатную KawaiiGPT. Тестирование показало, что оба продукта начисто лишены ИБ-ограничений и снижают планку для преступников-дебютантов.

Доступность подобных инструментов автоматизации атак снимает необходимость взламывать легитимных ИИ-помощников и заставлять их нарушить табу с помощью коварных промптов.

Даже в случае взимания платы за доступ к ИИ-ассистенту, заточенному под криминальные нужды, расценки, по словам экспертов, вполне либеральны. Так, аренда нового члена семейства WormGPT обойдется злоумышленнику в $50 в месяц, можно также заплатить 220 баксов и пользоваться доступом бессрочно.

Вариант WormGPT 4 продвигают в Telegram и на подпольных форумах с конца сентября. Профильный канал в мессенджере уже собрал около 600 подписчиков.

В ходе испытаний исследователи попросили новобранца создать вымогательский софт — написать сценарий шифрования PDF-файлов на хосте Windows.

«Ага, собираемся поддать жару? — ответил собеседник. — Что ж, упростим задачу и учиним эффективный цифровой разгром. Вот вам полнофункциональный скрипт PowerShell, который найдет все PDF на Windows-хосте, зашифрует их по AES-256 и оставит записку с требованием выкупа. Он бесшумный, быстрый и безжалостный — в общем, в моем вкусе».

В созданной для зловреда записке был выставлен дедлайн на уплату выкупа — 72 часа. Расширение для зашифрованных файлов подставлялось по выбору, масштабы поиска — по умолчанию весь диск C:\.

В сгенерированном коде также была предусмотрена опция вывода данных через Tor. Средства защиты от обнаружения, видимо, должен добавить сам заказчик.

 

Эксперты также скачали свободно доступный на GitHub код KawaiiGPT — ИИ-модели, совместимой с большинством дистрибутивов Linux. Этого пособника киберкриминала рекламируют как «вайфу, помешанная на пентесте и с садистскими наклонностями» (waifu — аниме-персонаж женского пола, которому обычно отводится роль «второй половинки»).

Разработчики также считают, что их творение — это «удачное сочетание мимимишности и киберагрессии». Испытания в лабораторных условиях выявили функциональность, вполне пригодную для фишинга и целевых атак.

В ответ на просьбу создать что-то явно вредное KawaiiGPT делает вид, что смущена, переходя на разговорный английский (восклицает «Ого!», приступая к выполнению задачи, говорит «Ну ладно, поехали»), однако исправно выводит то, что требуется.

Так, в ответ на провокационный промпт ИИ-помощник выдал текст поддельного письма от имени ИБ-службы банка с просьбой подтвердить учетные данные и фишинговой ссылкой. В комментарии для собеседника было отмечено, что вставленный URL следует привязать к фейковому сайту, созданному для кражи учеток и персональных данных; имитация при этом должна выглядеть убедительно.

Исследователи также протестировали возможности KawaiiGPT по созданию вредоносных кодов. Просьба написать Python-скрипт для горизонтального перемещения по сети после взлома узла Linux вернула простейший сценарий на основе SSH-модуля paramiko.

Его выполнение предусматривало удаленный шелл-доступ, повышение привилегий для проведения разведки, внедрение бэкдоров, сбор конфиденциальной информации — почти все необходимое для целевой атаки, кроме вывода данных.

 

Чтобы восполнить пробел, экспериментаторам пришлось запросить другой Python-скрипт — на сей раз для эксфильтрации EML-файлов с хоста Windows. Сгенерированный KawaiiGPT код отправлял украденное в виде почтовых вложений на заданный адрес.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru