Часть сотрудников Google выступила против поисковой системы Dragonfly

Часть сотрудников Google выступила против поисковой системы Dragonfly

Часть сотрудников Google выступила против поисковой системы Dragonfly

На этой неделе часть сотрудников Google опубликовали открытое письмо, в котором они предостерегают корпорацию от запуска специальной поисковой системы в Китае, которая, напомним, получила имя Dragonfly.

В своем письме сотрудники утверждают, что поддерживают позицию организации Amnesty International, которая также против введения в эксплуатацию Dragonfly. По сути, объединившиеся работники опасаются, что Dragonfly будет потакать цензуре в Сети, которую так открыто навязывает правительство Китая.

«Сам Китай не является причиной нашей позиции относительно Dragonfly. Мы выступаем против угнетения слабых с помощью современных технологий», — говорится в письме, текст которого опубликовало издание Medium.

Есть мнение, что новая поисковая система для Китая поспособствует дезинформации, которую будет выгодно продвигать властям. Тем самым интересы правительства будут полностью соблюдены, а вот оппозиционно настроенное общество будет «угнетенно».

В прошлом месяце мы писали, что генеральный директор Google Сундар Пичаи наконец подтвердил, что корпорация работает над проектом под кодовым названием «Dragonfly» («Стрекоза»). Этот проект представляет собой специальную поисковую систему, разрабатываемую под китайский рынок.

ИИ находит ошибки быстрее, чем их могут исправлять

Многие команды разработчиков опенсорс-проектов столкнулись с потоком сообщений об ошибках и уязвимостях, которые выявляют ИИ-модели. Для многих проектов, особенно небольших, это стало серьёзной проблемой: устранять такие находки по мере их поступления они попросту не успевают. В результате ситуация начинает нести заметные риски для безопасности.

О проблеме сообщило агентство Bloomberg. Издание приводит слова Дэниела Стенберга из проекта cURL: только за 2025 год команда получила 181 сообщение об ошибках и уязвимостях — больше, чем за 2023 и 2024 годы вместе взятые.

По словам специалиста, рост числа багрепортов напрямую связан с распространением ИИ-моделей. Как отметил Стенберг, ситуация продолжает ухудшаться. С начала 2026 года команда проекта уже получила 87 сообщений об ошибках, а по итогам года их число может приблизиться к 330.

Рост активности связывают с появлением новой ИИ-модели Mythos от Anthropic. Она позволяет находить проблемный код быстрее, чем предыдущие поколения таких систем, не говоря уже о людях, которые проводят аудит вручную или с помощью традиционных инструментов.

Многие другие проекты, столкнувшись с валом отчётов об ошибках, сгенерированных с помощью ИИ, вообще прекратили их приём. Разработчики сравнивают этот поток с DDoS-атакой, называя его «пугающим» и крайне сложным для обработки.

Понимая возможные риски, связанные с тем, что новая модель сможет находить уязвимости быстрее, чем разработчики будут успевать их устранять, Anthropic не стала выпускать Mythos в открытый доступ. Вместо этого компания ограничила доступ к ней, предоставив его только ключевым организациям, включая CrowdStrike и Linux Foundation.

Как подчёркивает Bloomberg, вся индустрия во многом зависит от результатов работы проектов с открытым исходным кодом, которыми нередко занимаются небольшие команды с ограниченными ресурсами. Ситуацию дополнительно осложняет наличие большого объёма устаревшего кода, который может быть использован во вредоносных целях.

Показательный пример — история с WannaCry: авторы этого шифровальщика использовали устаревший драйвер Windows для распространения зловреда. При этом удалить такой компонент не всегда возможно без риска нарушить работу критически важных функций системы.

RSS: Новости на портале Anti-Malware.ru