Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Несколько месяцев подряд в Google Search Console — инструменте, который веб-мастера используют для анализа поискового трафика, — появляются очень странные запросы. Вместо привычных коротких ключевых слов там стали попадаться целые абзацы текста — личные обращения пользователей к ChatGPT.

Иногда длина таких «запросов» превышала 300 символов, а по содержанию они выглядели как частные разговоры: кто-то спрашивал совет по отношениям, кто-то обсуждал рабочие вопросы.

Проблему первым заметил аналитик Джейсон Пакер из компании Quantable. Он опубликовал запись в блоге, где рассказал о десятках подобных случаев, а позже объединился с SEO-экспертом Слободаном Маничем, чтобы разобраться, откуда берутся эти данные.

По их версии, найденной утечке нет аналогов: ChatGPT будто бы напрямую отправлял пользовательские запросы в Google Search, а затем те каким-то образом оказывались в отчётах GSC. Эксперты уверены, что речь идёт о «первом доказательстве того, что OpenAI действительно обращается к поиску Google с реальными пользовательскими промптами».

OpenAI комментировать гипотезу напрямую отказалась, но подтвердила, что «осведомлена о проблеме» и уже исправила ошибку, которая якобы «затронула небольшое количество поисковых запросов».

Пакер, впрочем, не убеждён, что всё так просто. Он считает, что компания не дала прямого ответа на главный вопрос — действительно ли OpenAI сканировала Google и передавала туда пользовательские промпты. Google ситуацию не прокомментировала.

Первые утёкшие фразы Пакер заметил ещё в сентябре. Среди них — поток сознания от девушки, пытавшейся понять, нравится ли она парню, и деловое сообщение офис-менеджера, обсуждающего возвращение сотрудников в офис. Всего Пакер насчитал около двухсот подобных записей только на одном сайте.

Дальнейшее расследование показало, что все эти запросы начинались с одинакового URL:
https://openai.com/index/chatgpt/

Google, как предполагают исследователи, разделил адрес на отдельные слова — openai, index, chatgpt — и начал воспринимать их как поисковый запрос. Из-за этого сайты, которые хорошо ранжировались по этим словам, начали видеть в своей консоли чужие фразы пользователей ChatGPT.

Пакер и Манич полагают, что причиной стала ошибка в одном из интерфейсов ChatGPT. При вводе запроса на странице с параметром hints=search модель почти всегда выполняла реальный поиск в интернете — и использовала при этом Google. Из-за сбоя ChatGPT добавлял к поисковому запросу часть адреса страницы и передавал всё это в Google как обычный поисковый запрос.

Поскольку запросы не шли через API, а именно через открытый поиск, они начали появляться в отчётах Search Console у тех сайтов, которые Google выбрал в результатах.

Пакер считает, что так утекали все промпты, где ChatGPT принимал решение искать сделать поиск в Google. OpenAI заявила, что инцидент затронул «небольшое количество запросов», но не уточнила, сколько именно пользователей могли пострадать.

Ранее уже была похожая история, когда пользовательские чаты ChatGPT попадали в индекс Google. Тогда OpenAI объяснила, что пользователи сами «неосознанно» сделали их публичными, поставив соответствующую галочку.

В этот раз, подчёркивает Пакер, всё гораздо хуже: никто ничего не публиковал добровольно. Пользователи просто писали запросы — и часть этих сообщений могла оказаться в инструментах аналитики чужих сайтов.

Эксперты называют ситуацию «менее опасной, но куда более странной». И хотя OpenAI утверждает, что проблема уже устранена, Пакер и Манич уверены: вопросов всё ещё больше, чем ответов.

Главный из них — перестала ли OpenAI вообще использовать Google Search для сбора данных, или просто изменила способ отправки запросов. Пока компания этого не уточнила.

Имея только номер: как WhatsApp выдаёт активность и устройства пользователя

WhatsApp (принадлежит корпорации Meta, признанной экстремисткой и запрещённой в России) снова оказался в центре внимания исследователей, на этот раз из-за утечек метаданных, которые позволяют узнать о пользователе больше, чем хотелось бы. Как выяснил сооснователь и CTO Zengo Таль Беэри, имея только номер телефона, посторонний может определить, когда человек бывает онлайн, а в некоторых случаях даже выяснить, какими устройствами он пользуется.

Своё исследование Беэри представит на Black Hat Asia 2026. Суть проблемы не в том, что WhatsApp раскрывает содержимое переписки, с этим у мессенджера, по словам разработчиков, по-прежнему всё жёстко благодаря сквозному шифрованию.

Здесь, кстати, Паша Дуров не согласится. Напомним, основатель Telegram недавно назвал шифрование WhatsApp крупнейшим обманом пользователей.

Тем не мене побочным эффектом архитектуры мессенджера оказались именно метаданные. По данным Dark Reading, исследователь показал, как с помощью самодельного инструмента, работающего через протокол WhatsApp Web, можно незаметно отслеживать активность пользователя. Например, отправлять особые «тихие» сигналы, которые не отображаются на устройстве жертвы, но позволяют понять, находится ли человек онлайн.

Такие «незаметные пинги» сами по себе не выглядят чем-то катастрофическим, но на практике могут дать злоумышленнику полезные сведения. По сути, можно постепенно собрать цифровой распорядок дня жертвы: когда она спит, когда работает, в какое время с большей вероятностью откликнется на фишинговое сообщение. В теории этот же механизм можно использовать и для медленного расхода батареи устройства.

Есть и ещё один нюанс. Когда кто-то инициирует новый чат, WhatsApp в служебном обмене передаёт данные, необходимые для сквозного шифрования на всех устройствах пользователя. Из-за особенностей этих идентификаторов можно сделать вывод, на каких платформах человек использует мессенджер — например, на iPhone, Android или десктопе. Причём для этого, как утверждает исследователь, достаточно просто добавить номер в контакты, не уведомляя владельца.

Сам по себе такой слив метаданных может показаться мелочью, но, по мнению Беэри, он полезен и мошенникам, и более серьёзным киберпреступникам. Одним он даёт дополнительную информацию для фишинга и социальной инженерии, другим — помогает точнее готовить атаки под конкретную ОС и устройство.

RSS: Новости на портале Anti-Malware.ru