Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Несколько месяцев подряд в Google Search Console — инструменте, который веб-мастера используют для анализа поискового трафика, — появляются очень странные запросы. Вместо привычных коротких ключевых слов там стали попадаться целые абзацы текста — личные обращения пользователей к ChatGPT.

Иногда длина таких «запросов» превышала 300 символов, а по содержанию они выглядели как частные разговоры: кто-то спрашивал совет по отношениям, кто-то обсуждал рабочие вопросы.

Проблему первым заметил аналитик Джейсон Пакер из компании Quantable. Он опубликовал запись в блоге, где рассказал о десятках подобных случаев, а позже объединился с SEO-экспертом Слободаном Маничем, чтобы разобраться, откуда берутся эти данные.

По их версии, найденной утечке нет аналогов: ChatGPT будто бы напрямую отправлял пользовательские запросы в Google Search, а затем те каким-то образом оказывались в отчётах GSC. Эксперты уверены, что речь идёт о «первом доказательстве того, что OpenAI действительно обращается к поиску Google с реальными пользовательскими промптами».

OpenAI комментировать гипотезу напрямую отказалась, но подтвердила, что «осведомлена о проблеме» и уже исправила ошибку, которая якобы «затронула небольшое количество поисковых запросов».

Пакер, впрочем, не убеждён, что всё так просто. Он считает, что компания не дала прямого ответа на главный вопрос — действительно ли OpenAI сканировала Google и передавала туда пользовательские промпты. Google ситуацию не прокомментировала.

Первые утёкшие фразы Пакер заметил ещё в сентябре. Среди них — поток сознания от девушки, пытавшейся понять, нравится ли она парню, и деловое сообщение офис-менеджера, обсуждающего возвращение сотрудников в офис. Всего Пакер насчитал около двухсот подобных записей только на одном сайте.

Дальнейшее расследование показало, что все эти запросы начинались с одинакового URL:
https://openai.com/index/chatgpt/

Google, как предполагают исследователи, разделил адрес на отдельные слова — openai, index, chatgpt — и начал воспринимать их как поисковый запрос. Из-за этого сайты, которые хорошо ранжировались по этим словам, начали видеть в своей консоли чужие фразы пользователей ChatGPT.

Пакер и Манич полагают, что причиной стала ошибка в одном из интерфейсов ChatGPT. При вводе запроса на странице с параметром hints=search модель почти всегда выполняла реальный поиск в интернете — и использовала при этом Google. Из-за сбоя ChatGPT добавлял к поисковому запросу часть адреса страницы и передавал всё это в Google как обычный поисковый запрос.

Поскольку запросы не шли через API, а именно через открытый поиск, они начали появляться в отчётах Search Console у тех сайтов, которые Google выбрал в результатах.

Пакер считает, что так утекали все промпты, где ChatGPT принимал решение искать сделать поиск в Google. OpenAI заявила, что инцидент затронул «небольшое количество запросов», но не уточнила, сколько именно пользователей могли пострадать.

Ранее уже была похожая история, когда пользовательские чаты ChatGPT попадали в индекс Google. Тогда OpenAI объяснила, что пользователи сами «неосознанно» сделали их публичными, поставив соответствующую галочку.

В этот раз, подчёркивает Пакер, всё гораздо хуже: никто ничего не публиковал добровольно. Пользователи просто писали запросы — и часть этих сообщений могла оказаться в инструментах аналитики чужих сайтов.

Эксперты называют ситуацию «менее опасной, но куда более странной». И хотя OpenAI утверждает, что проблема уже устранена, Пакер и Манич уверены: вопросов всё ещё больше, чем ответов.

Главный из них — перестала ли OpenAI вообще использовать Google Search для сбора данных, или просто изменила способ отправки запросов. Пока компания этого не уточнила.

F6 запустила сервис активного сканирования для проверки на уязвимости 

Компания F6 сообщила о запуске сервиса активного сканирования в составе решения F6 Attack Surface Management (ASM). Новый модуль под названием F6 ASM TRY предназначен для проверки внешнего периметра организаций с имитацией поведения реальных атакующих.

В отличие от пассивного анализа, который опирается на OSINT, исторические данные и открытые источники, активное сканирование предполагает прямое взаимодействие с инфраструктурой компании.

Сервис инициирует запросы к цифровым активам, выявляет открытые порты, доступные сервисы, уязвимости и потенциальные точки входа. При необходимости возможен углублённый анализ, чтобы уточнить контекст и понять, есть ли признаки вредоносной активности.

По данным F6, в начале 2026 года в инфраструктурах российских компаний в среднем выявляется 425 критических проблем. Чаще всего речь идёт о небезопасных конфигурациях серверов и устаревшем программном обеспечении.

Среднее количество цифровых активов на одну организацию — 4614. Такой масштаб сам по себе создаёт риски: любой забытый сервис или неконтролируемый хост может стать отправной точкой атаки, особенно если инфраструктура растёт быстрее, чем обновляется документация и процессы контроля.

F6 ASM TRY позволяет специалистам по ИБ проверять устойчивость инфраструктуры ко внешним атакам на практике: проводить брутфорс-проверки протоколов, сканировать порты, искать открытые директории, а также тестировать эксплуатацию найденных уязвимостей, в том числе с использованием собственного кода.

По заявлению разработчика, сканирование проводится в контролируемом режиме, не нарушает работу исследуемых ресурсов и выполняется только с согласия организации.

В F6 отмечают, что сочетание пассивного мониторинга и активного тестирования даёт более полное понимание состояния внешнего периметра. Сервис уже зарегистрирован в Едином реестре российского ПО как часть решения F6 Attack Surface Management.

RSS: Новости на портале Anti-Malware.ru