Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного ИИ ухудшает качество кода

Использование генеративного искусственного интеллекта (ИИ) в разработке программного обеспечения может негативно сказываться на качестве кода. Это связано с так называемыми «галлюцинациями» больших языковых моделей, риском утечек кода, а также с тем, что ИИ нередко воспроизводит уже существующие ошибки и уязвимости.

Влиянию генеративного ИИ на процессы разработки было посвящено выступление основателя компании CodeScoring Алексея Смирнова на конференции «День безопасной разработки», организованной Ассоциацией разработчиков программных продуктов (АРПП) «Отечественный софт».

Как отметил Алексей Смирнов, галлюцинации ИИ в контексте программирования чаще всего проявляются в рекомендациях использовать несуществующие библиотеки — таких случаев может быть до 20%. Причём ещё год назад эта проблема практически не наблюдалась.

По его мнению, этим недостатком могут воспользоваться злоумышленники, подсовывая разработчикам заведомо уязвимые или вредоносные компоненты. Особенно опасно то, что в 58% случаев галлюцинации ИИ повторяются — а значит, подобрать нужное название несуществующей библиотеки становится проще.

Смирнов также сообщил, что с появлением ИИ-ассистентов количество утечек кода увеличилось на 40%. Утечки данных, использованных для обучения нейросетей, в целом являются типичной проблемой. Например, в модели угроз, разработанной в Сбере, такая угроза считается одной из ключевых.

Кроме того, по данным CodeScoring, в каждом третьем случае ИИ-ассистенты воспроизводят уязвимости в коде. Таким образом, надежды на то, что генеративные инструменты смогут автоматически находить и устранять уязвимости, не оправдались. Более того, как подчеркнул Алексей Смирнов, накопленный опыт показывает, что применение генеративного ИИ затрудняет работу статических анализаторов кода.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Секретарь ЦИК предупредила наблюдателей о дипфейках

Секретарь ЦИК РФ Наталья Бударина в выступлении на пленарной сессии Всероссийского конгресса наблюдателей предупредила о широком использовании технологий дипфейков в ходе предстоящей выборной кампании. В сентябре 2026 года в России пройдут выборы в Госдуму, депутатов законодательных собраний 39 регионов и глав семи субъектов РФ.

Как передаёт РИА Новости, Бударина подчеркнула, что к угрозам необходимо готовиться заранее и принимать проактивные меры для их нейтрализации.

По её словам, в целом угрозы в избирательном процессе носят типовой характер — в частности, речь идёт о «бюрократическом терроризме», то есть многочисленных жалобах на малозначительные или вовсе несуществующие нарушения.

Среди технических рисков секретарь ЦИК выделила DDoS-атаки. Дипфейки, отметила она, являются относительно новой угрозой, однако в ходе текущей кампании они проявят себя «в полный рост».

При этом Бударина выразила уверенность в том, что наблюдательское сообщество справится с вызовами: «Я уверена, что у нас настолько профессиональное, опытное сообщество наблюдателей, которое способно донести до избирателей объективную и правдивую информацию о том, что происходит на участках».

Между тем участники круглого стола 20 ноября признали, что практически все крупные российские политики и партии активно используют нейросетевые сервисы в своей работе. При этом назвать однозначного лидера или пионера в этом направлении невозможно.

«ИИ помогает ускорить работу экспертов как в социальных, так и в политических направлениях», — так охарактеризовал основной сценарий применения нейросетей политолог Сергей Мощенков, чьи слова приводит «Коммерсантъ».

По словам участников дискуссии, использование ИИ позволяет эффективнее работать с различными аудиториями. Кроме того, чтобы оставаться заметным в информационном поле, депутату сегодня приходится создавать как минимум вдвое больше контента, чем три года назад, что невозможно без генеративных технологий.

По данным на начало 2025 года, почти 90% выявленных в России дипфейков, распространявшихся в соцсетях, блогосфере и открытых каналах мессенджеров, относились к политической сфере. Наиболее частыми объектами поддельных материалов становились губернаторы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru