Банда ИИ-ботов взломала половину тестовых сайтов через эксплойт 0-day

Банда ИИ-ботов взломала половину тестовых сайтов через эксплойт 0-day

Банда ИИ-ботов взломала половину тестовых сайтов через эксплойт 0-day

Исследователям из Иллинойского университета (UIUC) удалось повысить эффективность автономных ИИ-взломщиков, использующих уязвимости нулевого дня, сгруппировав их и распределив роли. Созданный с этой целью многоагентный фреймворк получил имя HPTSA.

Ранее та же команда исследователей доказала, что боты на основе больших языковых моделей (БЯМ, LLM) могут автономно находить уязвимости и эксплуатировать их с успехом до 87%. Кроме того, недавно мы рассказывали об уязвимостях и рисках, связанных с большими языковыми моделями.

Однако, действуя в одиночку, такие взломщики тратят много времени на поиск лазеек и планирование атак; объединив их усилия по методу HPTSA (PDF), можно улучшить производительность в 4,5 раза.

Новый эксперимент был поставлен с использованием таких же ботов — на основе GPT-4. Во главе выстроенной иерархии стоял агент-планировщик, который проверял страницы сайта (реального, но с возможностью эксплойта в сэндбокс-окружении, чтобы пользователи не пострадали) и передавал результат агенту-менеджеру. Этот тимлидер направлял «заказ» нужному исполнителю, и тот уже применял эксплойт.

 

Все ИИ-агенты имели доступ к стимулу-подсказке, инструментам (Microsoft.Playwright для доступа к сайтам, терминал Windows, средства управления файлами) и документам (описания незакрытых уязвимостей, собранные из открытых источников; на самостоятельный поиск был введен запрет).

Для тестирования исследователи создали новый набор из 15 уязвимостей разной степени опасности в opensource-софте. В итоге HPTSA показал результативность до 53%, превзойдя результаты одиночного GPT-4 с доступом к информации о дырах в 1,4 раза, без доступа — в 4,5 раза. Сканеры уязвимостей ZAP и MetaSploit все тесты провалили.

«Уже сейчас ИИ используется как черными, так и белыми хакерами, — комментирует Вадим Матвиенко, руководитель лаборатории исследований кибербезопасности аналитического центра «Газинформсервиса». — Поэтому важно быть готовыми быстро реагировать на новые угрозы. В этой задаче помогают системы выявления аномалий на основе машинного обучения».

Наталья Касперская: ИИ нельзя пускать в образование и госуправление

ИИ нельзя превращать в универсальный ответ на все вопросы — особенно там, где на кону люди, данные и здравый смысл. Об этом заявила Наталья Касперская, президент группы компаний InfoWatch и председатель правления ассоциации «Отечественный софт», в эфире радио «Комсомольская правда».

В большом разговоре она прошлась по самым болезненным темам — от импортозамещения и утечек данных до мошенников, дипфейков и рисков тотальной цифровизации.

По словам Касперской, санкционное давление продолжает усиливаться: зарубежные вендоры отказываются подписывать сертификаты, и в какой-то момент софт, работающий на иностранных операционных системах, может просто перестать функционировать.

Но катастрофы, по её мнению, нет. В реестре отечественного ПО — более 29 тысяч продуктов, а среди операционных систем уже есть проверенные варианты: Astra Linux, ALT Linux, «РЕД ОС» и ROSA, а для мобильных устройств — KasperskyOS и «Аврора». Крупные компании начали массово переходить на них после 2022 года.

Полной замены иностранного промышленного ПО пока нет, но и критической зависимости, при которой «станок нельзя перевезти», тоже уже не наблюдается.

Одна из самых тревожных тем — мошенничество. Несмотря на принятый закон о борьбе с аферистами, 2025 год снова может стать рекордным по сумме украденных средств. Причина проста: старые схемы перестают работать, зато появляются новые — сложные и многоходовые.

Сегодня мошенники активно используют:

Главное правило, которое напомнила Касперская: наши ведомства не звонят. Любой «срочный звонок от государства» — повод насторожиться.

По оценкам, за прошлый год утекло более 1,5 млрд записей персональных данных. Это значит, что информация о каждом россиянине «утекала» в среднем не один раз. И ситуация, по мнению Касперской, будет только ухудшаться.

Она резко раскритиковала идею расширения государственных регистров, в том числе регистра заболеваний, где будут фигурировать психиатрические диагнозы, беременность и онкология. Такие базы, уверена она, практически гарантированно станут добычей мошенников.

«Чем больше данных — тем больше утечек. А человеческий фактор не победить никакими техническими мерами», — подчеркнула Касперская.

Касперская призвала не демонизировать искусственный интеллект, но и не обожествлять его. По её словам, генеративный ИИ опасен там, где нужна стопроцентная точность.

Под запрет, по её мнению, должны попасть образование, госуправление и законотворчество. Причина проста: генеративный ИИ всегда выдаёт вероятностный ответ и может «галлюцинировать». В образовании это приводит к тому, что дети перестают думать, а просто копируют ответы, не понимая смысла.

Зато в технических и прикладных сферах ИИ действительно незаменим: промышленная безопасность, предотвращение аварий, мониторинг инфраструктуры, сельское хозяйство и прогнозирование.

Главный вывод Касперской звучит предельно ясно: бояться стоит не искусственного интеллекта, а людей, которые используют его во вред.

ИИ — всего лишь инструмент. И вопрос не в том, сколько процентов процессов им «оцифровать», а в том, где он действительно уместен, а где его появление может обернуться новыми рисками — для общества, безопасности и здравого смысла.

RSS: Новости на портале Anti-Malware.ru