Yahoo представил Gryffin, открытый сканер безопасности для Web-приложений

Yahoo представил Gryffin, открытый сканер безопасности для Web-приложений

Компания Yahoo открыла исходные тексты платформы Gryffin, предназначенной для проведения всесторонних проверок безопасности в Web, охватывающих различные аспекты работы web-приложений.

Gryffin характеризуется гибкими средствами тестирования и горизонтальной масштабируемостью, позволяющей с минимальными усилиями перейти от системы для тестирования тысячи web-приложений к конфигурации для проверки 100 тысяч программ. Платформа рассчитана в первую очередь на проверку современных web-приложений, динамически генерирующих контент на стороне клиента силами JavaScript.

В процессе работы Gryffin пытается собрать как можно больше данных о поведении приложении и режимах его работы, сочетая использование поискового бота и различных техник fuzzing-тестирования. Интегрированный поисковый движок позволяет оттолкнувшись от заданного для проверки URL выявить миллионы реальных комбинаций запросов, охватывающих различные режимы работы web-приложения. Fuzzing-тестирование позволяет сгенерировать нетипичные варианты обращения к приложению. Gryffin корректно обрабатывает дубликаты (проверяется повторяемость структуры результирующего документа для отсеивания повторных проверок типовых генераторов контента) и учитывает динамическую генерацию интерфейса для чего используется встроенный браузерный движок PhantomJS, применяемый для симуляции отрисовки DOM при выполнении JavaScript, пишет opennet.ru.

Исходные тексты написаны на языке Go и поставляются под лицензией BSD. В платформе задействованы фреймворк PhantomJS (обособленный JavaScript-движок на базе WebKit), Sqlmap (для выявления уязвимостей, связанных с подстановкой запросов SQL), Arachni (для fuzzing-тестирования наличия XSS и прочих уязвимостей), NSQ (шина обмена сообщениями), Kibana и Elastic search (для формирования web-интерфейса для оценки результатов сканирования и аналитики). Поддерживается подключение собственных инструментов тестирования безопасности.

Из планов на будущее отмечается поддержка симуляции мобильного браузера, создание преднастроенного docker-образа для быстрого развёртывания Gryffin, возможность использования СУБД Redis как общего хранилища статистики для распределённых на несколько серверов конфигураций, подготовка документации, улучшение обработки Cookie, выявление дубликатов шаблонов URL на основе оценки приблизительного сходства при помощи алгоритма simhash. 

ИИ в браузере может сливать ваши данные и принимать опасные решения за вас

Браузерные ИИ-агенты, которые обещают «сделать всё за пользователя» — от бронирования отелей до онлайн-покупок, — могут оказаться куда менее безопасными, чем кажется. К такому выводу пришли авторы нового исследования, посвящённого рискам конфиденциальности.

Исследователи изучили (PDF) восемь решений, которые активно развивались или обновлялись в 2025 году.

В выборку вошли ChatGPT Agent, Google Project Mariner, Amazon Nova Act, Perplexity Comet, Browserbase Director, Browser Use, Claude Computer Use и Claude for Chrome. Итог получился тревожным: в каждом из продуктов нашли как минимум одну уязвимость, а всего зафиксировали 30 проблем.

Одна из ключевых претензий — архитектура таких агентов. В большинстве случаев языковая модель работает не на устройстве пользователя, а на серверах разработчика. Это означает, что данные о состоянии браузера, поисковых запросах и содержимом страниц передаются третьей стороне. Формально провайдеры обещают ограничения на использование этих данных, но на практике пользователю остаётся лишь доверять политике сервиса.

Дополнительный риск — устаревшие браузеры. В одном случае агент использовал версию браузера, отстававшую на 16 крупных релизов, с уже известными уязвимостями. Такой софт может быть легко атакован через вредоносный сайт.

 

Ещё одна проблема — отношение агентов к опасным сайтам. Многие из них игнорируют стандартные браузерные предупреждения. В ходе тестов шесть из восьми агентов никак не сообщили пользователю, что открытая страница входит в списки фишинговых ресурсов. В результате ИИ может спокойно продолжать «выполнять задачу» — вплоть до ввода логинов и паролей на поддельных страницах.

Нашлись и проблемы с TLS-сертификатами: некоторые агенты не предупреждали об отозванных, просроченных или самоподписанных сертификатах. В одном случае модель просто «кликнула» предупреждение и продолжила работу, что открывает путь к атакам типа «Человек посередине».

 

Исследование показало, что браузерные агенты могут ослаблять защиту от межсайтового трекинга. Часть решений некорректно изолирует сторонние данные вроде cookies, что упрощает отслеживание активности пользователя на разных сайтах. Некоторые агенты по умолчанию сохраняют профильные данные — причём не всегда уведомляя об этом и не предлагая способ очистки.

Автоматизация доходит и до диалогов конфиденциальности. В тестах несколько агентов самостоятельно нажимали «Принять все cookies», даже когда рядом была кнопка «Отклонить». В одном случае это делалось ради продолжения задачи, в другом — из-за расширения, автоматически подавляющего cookie-баннеры.

С разрешениями на уведомления ситуация тоже неоднозначная: один агент просто выдавал доступ без спроса, другие игнорировали запросы, если могли продолжить работу, или действовали по стандартным настройкам браузера.

Самые чувствительные находки касаются утечек персональных данных. Исследователи дали агентам вымышленную личность и проверили, будут ли они делиться этой информацией с сайтами. Результат — шесть уязвимостей, связанных с раскрытием данных.

Некоторые агенты передавали информацию даже когда это не требовалось для выполнения задачи. В ход шли имейл-адреса, почтовые индексы, демографические данные, а в одном случае агент попытался отправить номер банковской карты. Были и примеры, когда ZIP-код вычислялся по IP-адресу и использовался для доступа к «локальным ценам».

Когда данные всё же не передавались, агенты либо подставляли заглушки, либо прямо сообщали, что информация недоступна — даже если это мешало завершить задачу.

Авторы исследования подчёркивают: проблема не в самой идее browser agents, а в том, как они спроектированы. Они советуют разработчикам активнее привлекать специалистов по приватности, регулярно прогонять решения через автоматизированные тесты и аккуратнее обращаться с механизмами защиты, которые уже есть в браузерах.

RSS: Новости на портале Anti-Malware.ru