Google представила CodeMender — ИИ, который сам патчит уязвимости в коде

Google представила CodeMender — ИИ, который сам патчит уязвимости в коде

Google представила CodeMender — ИИ, который сам патчит уязвимости в коде

Google не сбавляет темпы в деле защиты ПО с помощью искусственного интеллекта. На этот раз подразделение DeepMind представило новый ИИ-инструмент под названием CodeMender — агента, который автоматически обнаруживает, исправляет и переписывает уязвимый код, предотвращая возможные взломы и ошибки.

По словам исследователей DeepMind Ралуки Ады Попа и Фура Флинна, CodeMender умеет работать как реактивно, так и проактивно: то есть не только чинит новые баги сразу после их обнаружения, но и переписывает старый код, убирая целые классы уязвимостей.

«CodeMender помогает разработчикам и мейнтейнерам сосредоточиться на главном — создании хорошего ПО, автоматически создавая и применяя качественные патчи безопасности», — рассказали в DeepMind.

За последние полгода команда уже успела внести 72 исправления в открытые проекты, причём некоторые из них содержат до 4,5 миллиона строк кода.

В основе CodeMender лежат модели семейства Google Gemini Deep Think, которые анализируют, отлаживают и чинят код, устраняя первопричины уязвимостей.

При этом используется LLM-инструмент для критического анализа изменений: он сравнивает исходный и исправленный код, проверяет, не появились ли регрессии, и при необходимости сам себя корректирует.

Google планирует тестировать CodeMender на крупных опенсорс-проектах, предлагая их мейнтейнерам автоматические патчи и собирая обратную связь, чтобы улучшить качество инструмента.

Вдобавок компания запустила AI Vulnerability Reward Program (AI VRP) — программу поощрений за обнаружение уязвимостей в ИИ-продуктах Google. Исследователи смогут получить до $30 000 за отчёты о таких проблемах, как инъекция промпта, джейлбрейк и т. п.

Однако баги вроде галлюцинаций, обходов защитных фильтров или ошибок фактов в эту программу не входят.

По словам компании, цель всех этих шагов — использовать искусственный интеллект для усиления кибербезопасности и защиты разработчиков, а не наоборот:

«ИИ должен дать защитникам преимущество в борьбе с хакерами, мошенниками и государственными угрозами».

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru