Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного искусственного интеллекта (ИИ) в разработке программного обеспечения может негативно сказываться на качестве кода. Это связано с так называемыми «галлюцинациями» больших языковых моделей, риском утечек кода, а также с тем, что ИИ нередко воспроизводит уже существующие ошибки и уязвимости.

Влиянию генеративного ИИ на процессы разработки было посвящено выступление основателя компании CodeScoring Алексея Смирнова на конференции «День безопасной разработки», организованной Ассоциацией разработчиков программных продуктов (АРПП) «Отечественный софт».

Как отметил Алексей Смирнов, галлюцинации ИИ в контексте программирования чаще всего проявляются в рекомендациях использовать несуществующие библиотеки — таких случаев может быть до 20%. Причём ещё год назад эта проблема практически не наблюдалась.

По его мнению, этим недостатком могут воспользоваться злоумышленники, подсовывая разработчикам заведомо уязвимые или вредоносные компоненты. Особенно опасно то, что в 58% случаев галлюцинации ИИ повторяются — а значит, подобрать нужное название несуществующей библиотеки становится проще.

Смирнов также сообщил, что с появлением ИИ-ассистентов количество утечек кода увеличилось на 40%. Утечки данных, использованных для обучения нейросетей, в целом являются типичной проблемой. Например, в модели угроз, разработанной в Сбере, такая угроза считается одной из ключевых.

Кроме того, по данным CodeScoring, в каждом третьем случае ИИ-ассистенты воспроизводят уязвимости в коде. Таким образом, надежды на то, что генеративные инструменты смогут автоматически находить и устранять уязвимости, не оправдались. Более того, как подчеркнул Алексей Смирнов, накопленный опыт показывает, что применение генеративного ИИ затрудняет работу статических анализаторов кода.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Утечки из зарубежных сервисов ускорили импортозамещение в ИИ

До конца года треть российских ИТ-специалистов перейдёт на отечественные инструменты с искусственным интеллектом (ИИ). Главная причина — рост числа утечек данных из зарубежных сервисов. Согласно исследованию Yandex B2B Tech и университета ИТМО, к началу 2026 года 30% российских разработчиков будут использовать отечественные решения.

О тенденции сообщили «Известия» со ссылкой на Yandex B2B Tech. Сейчас доля российских систем составляет 17%, ещё 11% применяются в тестовом режиме и 10% разработчиков планируют перейти на них в ближайшее время.

Среди основных причин перехода на российские ИИ-инструменты называют:

  • участившиеся утечки данных в зарубежных сервисах;
  • ограниченный доступ к иностранным инструментам из России;
  • необходимость технической поддержки;
  • требования корпоративной кибербезопасности.

Как отметил руководитель платформы SourceCraft Дмитрий Иванов, 62% разработчиков в Яндексе регулярно используют SourceCraft Code Assistant для автоматизации повседневных задач. В MWS AI также применяют собственный ассистент Kodify. По словам представителей компании, на российском рынке уже есть достаточно качественные генеративные ИИ-решения, главное преимущество которых — более глубокая поддержка русского языка.

«Отечественные решения доступны напрямую, без обходных схем и риска отключения. Для бизнеса это критично: сбой в работе ИИ-инструмента, встроенного в процессы, может парализовать целое подразделение или компанию. С российскими системами такого не произойдёт — их не отключат из-за санкций, политических решений или изменений в лицензиях», — заявил главный владелец продукта Content AI Антон Хаймовский.

Крупнейший инцидент с утечкой данных произошёл в китайском сервисе Deepseek, где в открытом доступе оказался массив более чем из миллиона строк пользовательской информации. В целом количество взломов аккаунтов в нейросетевых сервисах в начале 2025 года выросло вдвое по сравнению с прошлым годом.

По словам технического директора OSMI IT Дениса Нагаева, утечки из зарубежных платформ стали сигналом для многих компаний о необходимости перехода на локальные решения. Импортозамещение помогает избежать репутационных рисков и позволяет заранее минимизировать угрозы, связанные с использованием ИИ, который во многом остаётся «чёрным ящиком».

«Нет никаких гарантий, что данные в российских нейросетях будут защищены лучше. Утечки возможны везде. Всё зависит от архитектуры системы, того, кто ею управляет, и какие меры защиты применяются», — дополнил Антон Хаймовский.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru