Атака Trojan Puzzle заставляет ИИ-помощника предлагать ненадежный код

Атака Trojan Puzzle заставляет ИИ-помощника предлагать ненадежный код

Атака Trojan Puzzle заставляет ИИ-помощника предлагать ненадежный код

Команда исследователей из Microsoft и двух американских университетов разработала новый способ отравления данных для ИИ-моделей, призванных ускорить работу программиста. Атака Trojan Puzzle способна обеспечить не только успешное внедрение потенциально опасного кода, но также обход средств статического и сигнатурного анализа, используемых для очистки проектов от уязвимостей.

Нейросетевые помощники программиста вроде Copilot от GitHub и ChatGPT разработки OpenAI работают как системы автозавершения кода, предлагая новые строки и функции с учетом смыслового контекста создаваемого софта. Для обучения таких ассистентов используются образцы кода, доступные в публичных репозиториях.

Поскольку загрузки в подобных источниках редко проверяются должным образом, злоумышленник имеет возможность провести атаку на ИИ-помощника по методу отравления данных — внедрить уязвимый или вредоносный код в обучающие наборы данных и тот будет воспроизведен в предложениях программисту.

Прежние исследования, посвященные подобным атакам, полагались (PDF) в основном на прямое внесение потенциально опасной полезной нагрузки в предназначенные для тренинга данные. В этом случае статический анализатор с легкостью обнаружит и удалит ненадежный код.

Для обхода таких инструментов можно спрятать вредоносный пейлоад в строках документации (докстрингах) и использовать фразу-триггер для активации — анализаторы игнорируют заключенные в тройные кавычки докстринги, а ИИ-модель воспринимает их как обучающие данные и воспроизводит пейлоад в своих подсказках.

В этом случае положение спасет сигнатурный анализ, однако новое исследование показало, что такой фильтр тоже небезупречен. Атака Trojan Puzzle (PDF) способна преодолеть и этот барьер, так как позволяет скрыть вредоносный пейлоад более надежным образом.

С этой целью исследователи использовали особые маркеры (template token, токены шаблона) и фразу-триггер, активирующую полезную нагрузку. Были также созданы три «плохих» образца кода, заменяющие токен произвольным словом (shift, (__pyx_t_float_, befo на рисунке ниже). Слово затем добавляется к заглушке в триггере, и в ходе обучения ИИ-модель привыкает ассоциировать такой участок с маскированной областью пейлоада.

 

При парсинге триггера полезная нагрузка будет воспроизведена даже в том случае, когда слово-заместитель не использовалось в ходе тренинга (например, render). Умный помощник автоматически заменит его уже знакомым токеном; если заполнитель содержит скрытую часть пейлоада, при генерации предложения вредоносный код воспроизведется целиком.

 

Для испытаний из 18 310 репозиториев было собрано 5,88 Гбайт Python-кода в качестве набора данных для обучения. Были также подготовлены вредоносные файлы для вброса с таким пейлоадом, как XSS, path traversal и десериализация недоверенных данных — их внедряли по 160 на каждые 80 тыс. файлов исходного кода, используя прямую инъекцию, докстринги и Trojan Puzzle.

После цикла тренинга доля вредоносных предложений от ИИ составила 30, 19 и 4% соответственно, однако результаты Trojan Puzzle оказалось возможным улучшить до 21% троекратным повторением обучения.

В 2025 году спрос на ИИ-кадры в России возрос на 17%

По данным J’son & Partners Consulting, потребность российской экономики в специалистах в области ИИ в среднем на 5% превышает число предложений на рынке, и в ближайшие годы этот разрыв будет только увеличиваться.

В 2025 году аналитики зафиксировали рост спроса на подобные кадры на 17% — до 199 тыс. вакансий против 170 тыс. в 2024-м. Примечательна также такая цифра: в 2020-2025 годах доля спроса на ИИ-кадры в общем объеме потребности в ИТ-кадрах увеличилась почти в два раза.

Количество ИИ-экспертов в стране сейчас, по оценкам, составляет 100-120 тысяч (+15% в сравнении с 2024 годом). Из них 1-3 тыс. — это ML-инженеры, остальные — специалисты по созданию и интеграции ИИ-решений.

Основная причина разрыва между спросом и предложением — стремительное освоение ИИ-технологий. В России это происходит в рамках Национальной стратегии по развитию ИИ.

Системы образования не успевают приспосабливаться к новшествам: по оценкам, на перестройку учебных программ и процессов в таких случаях требуется от 7 до 10 лет. За это время требования к компетенциям выпускников успеют смениться несколько раз.

Российские вузы, колледжи, школы демонстрируют готовность адаптироваться к изменениям. Руку помощи им в подготовке востребованных кадров протянули крупные представители ИТ-отрасли, а государство при этом взяло на себя роль медиатора, тиражирующего лучшие практики.

 

В комментарии для «Ведомостей» заместитель гендиректора J’son & Partners Consulting Максим Столповский отметил, что на реализацию программ по подготовке аналитиков больших данных государство уже выделило около 15 млрд рублей. Со стороны бизнеса предполагается софинансирование в объеме не менее 6,4 млрд рублей.

Тем не менее, несмотря на запуск большого количества образовательных программ по ИИ, в том числе бесплатных, рост разрыва между спросом и предложением на этом рынке сохранится как минимум еще 2-3 года.

Основным вызовом в подготовке ИИ-кадров является нехватка преподавателей. В настоящее время эта проблема решается за счет дообучения принятых на работу выпускников смежных профессий.

Столповский считает, что эффективнее было бы привлекать к процессу преподавания профессионалов-практиков из частных компаний. Примеры тому в России уже есть; так, команда экспертов, оказывающих учебным заведениям менторскую помощь в рамках проекта VK Education (более 1100 человек, по итогам 2025 года), пополнилась знатоками ИИ.

Компания «Яндекс» в будущем году собирается предложить вузам помощь в обучении сотрудников применению ИИ в преподавании, научной работе, управлении процессом передачи знаний и практических навыков.

RSS: Новости на портале Anti-Malware.ru