$1,5 млрд заплатили за ошибки в коде

Google выплатила более $1,5 млрд за найденные баги

В 2014 году корпорация Google заплатила более $1,5 млрд экспертам по безопасности, нашедшим ошибки в программном обеспечении компании. Сумму поделили между 200 экспертами, которые обнаружили свыше 500 брешей в различном ПО.

Самый большой гонорар в $150 тыс. выплатили хакеру Джорджу Хотцу (George Hotz), более известному под псевдонимом GeoHot. Специалист воспользовался 4 уязвимостями ОС Chrome. Это позволило дистанционно запустить программу на удаленной системе. Хотц сумел сделать это во время хакерского состязания Pwnium, которое спонсирует Google. Для этого, кроме прочего, хакер воспользовался нарушением памяти в JavaScript-движке браузера Chrome и внедрением кода в оболочку Chrome OS. Хотцу предложили стажировку в отделе Project Zero. В этом подразделении Google элитные хакеры обнаруживают новые уязвимости в продукции разных компаний.

По словам сотрудника Google Эдуардо Вела Навы (Eduardo Vela Nava), большинство ошибок Chrome не попали в финальные версии софта. Их устранили ещё в процессе разработки. Нава рассказал не только о затратах на устранение брешей, но и о начале работы двух новых проектов в области безопасности. Один из них – исследовательский грант, которые предлагается за обнаружение багов в продукции, предложенной Google. Второй заключается в том, что в программу Vulnerability Reward добавили возможность получения премий за найденные ошибки в официально разработанных Google мобильных приложениях для iOS и Android.

Пока исследовательские гранты только тестируют и для их получения не требуется сразу раскрывать баги. Максимальная сумма – $3 тыс. Нава утверждает, что такие вознаграждения выдаются исследователям ещё до того, как они сообщат о брешах. После запуска программы по поиску уязвимостей безопасности в 2010 корпорация заплатила $4 млрд за находки специалистов. Google также предоставляет вознаграждения за пределами данного проекта.

ИИ заполонил хакерские форумы и начал раздражать самих киберпреступников

Форумы «чёрных» хакеров и киберпреступников заполонил контент, сгенерированный нейросетями. Его активно продвигают владельцы площадок, нередко на платной основе. Однако самих пользователей таких форумов всё сильнее раздражают большие объёмы низкокачественного ИИ-контента.

К такому выводу пришли исследователи из Эдинбургского университета. Они проанализировали почти 100 тыс. переписок с хакерских форумов, посвящённых искусственному интеллекту, за период с ноября 2022 года — момента выхода первой публично доступной версии ChatGPT — до конца 2025 года.

Как оказалось, пользователей раздражает вмешательство ИИ-ассистентов, которых продвигают владельцы площадок, а также большое количество контента, созданного нейросетями. Кроме того, появление ИИ-резюме в поисковых системах привело к снижению посещаемости форумов.

Между тем такие форумы выстраивали свою репутацию годами. Эти площадки стали не только местом поиска заказов, обмена инструментами и торговли массивами украденных данных, но и пространством для обычного общения. Однако всё чаще пользователи не пишут посты сами, а делегируют это ИИ-ассистентам. Это раздражает тех, кто приходит на такие форумы именно за живым взаимодействием.

Злоумышленники также пытаются использовать искусственный интеллект в атаках. В некоторых сценариях это действительно даёт заметный эффект — например, при автоматизации операций социальной инженерии или генерации фишинговых сообщений. В таких случаях ИИ позволяет даже в массовых атаках повысить конверсию до уровня, который раньше был характерен скорее для целевого фишинга.

Авторы исследования также указывают на активное применение ИИ в схемах с ботами в мессенджерах и мошенничестве на сайтах знакомств, где используются дипфейки и образы несуществующих людей.

Однако при написании вредоносного кода с помощью ИИ результаты, как правило, не впечатляют — примерно так же, как и при создании легитимного кода. Качество обычно остаётся низким. А в случае хакерских инструментов ошибки и уязвимости, характерные для ИИ-сгенерированного кода, могут даже раскрывать инфраструктуру их авторов.

Пока исследователи не видят радикального эффекта от использования ИИ в киберпреступной среде. Особенно это касается заметного снижения порога входа. Также не зафиксировано существенного влияния ИИ на бизнес-модели и другие процессы таких сообществ — ни в положительную, ни в отрицательную сторону.

RSS: Новости на портале Anti-Malware.ru