Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного искусственного интеллекта (ИИ) в разработке программного обеспечения может негативно сказываться на качестве кода. Это связано с так называемыми «галлюцинациями» больших языковых моделей, риском утечек кода, а также с тем, что ИИ нередко воспроизводит уже существующие ошибки и уязвимости.

Влиянию генеративного ИИ на процессы разработки было посвящено выступление основателя компании CodeScoring Алексея Смирнова на конференции «День безопасной разработки», организованной Ассоциацией разработчиков программных продуктов (АРПП) «Отечественный софт».

Как отметил Алексей Смирнов, галлюцинации ИИ в контексте программирования чаще всего проявляются в рекомендациях использовать несуществующие библиотеки — таких случаев может быть до 20%. Причём ещё год назад эта проблема практически не наблюдалась.

По его мнению, этим недостатком могут воспользоваться злоумышленники, подсовывая разработчикам заведомо уязвимые или вредоносные компоненты. Особенно опасно то, что в 58% случаев галлюцинации ИИ повторяются — а значит, подобрать нужное название несуществующей библиотеки становится проще.

Смирнов также сообщил, что с появлением ИИ-ассистентов количество утечек кода увеличилось на 40%. Утечки данных, использованных для обучения нейросетей, в целом являются типичной проблемой. Например, в модели угроз, разработанной в Сбере, такая угроза считается одной из ключевых.

Кроме того, по данным CodeScoring, в каждом третьем случае ИИ-ассистенты воспроизводят уязвимости в коде. Таким образом, надежды на то, что генеративные инструменты смогут автоматически находить и устранять уязвимости, не оправдались. Более того, как подчеркнул Алексей Смирнов, накопленный опыт показывает, что применение генеративного ИИ затрудняет работу статических анализаторов кода.

В каждой седьмой студенческой работе обнаружены следы использования ИИ

В 2025 году следы использования генеративного искусственного интеллекта были обнаружены примерно в каждой седьмой студенческой работе, проверенной системой «Антиплагиат». Всего за год через сервис прошло около 8 млн учебных текстов.

Такую статистику привёл РИА Новости генеральный директор компании «Антиплагиат» Евгений Лукьянчиков. По его словам, признаки применения ИИ выявлены в 15,3% работ, при этом средний уровень заимствований из открытых источников составил около 20%.

Наиболее активно генеративные модели используют студенты гуманитарных и социально-экономических направлений: в этих дисциплинах доля ИИ-сгенерированных фрагментов примерно вдвое выше, чем в работах по техническим и естественнонаучным специальностям. В целом, отмечают в «Антиплагиате», интерес студентов к ИИ-инструментам продолжает расти.

Евгений Лукьянчиков также сообщил, что сейчас ведётся разработка новой версии системы «Антиплагиат». Она сможет одновременно выявлять как заимствования, так и тексты, созданные с помощью ИИ, отслеживать процесс написания работы в реальном времени и передавать соответствующие данные преподавателю. Запуск обновлённой версии запланирован на февраль.

«Сегодня уже недостаточно просто искать совпадения в тексте — важно уметь отличать самостоятельную работу от механического копирования или бездумного использования генеративных ИИ-моделей», — подчеркнул Евгений Лукьянчиков. По его мнению, искусственный интеллект должен помогать развитию критического мышления, а не подменять его.

При этом ИИ используют не только студенты. Ранее широкий резонанс вызвало обнаружение следов применения зарубежного ИИ-чат-бота при подготовке пояснительной записки к одному из законопроектов.

RSS: Новости на портале Anti-Malware.ru