OpenAI отключила функцию, из-за которой чаты ChatGPT попадали в поиск

OpenAI отключила функцию, из-за которой чаты ChatGPT попадали в поиск

OpenAI отключила функцию, из-за которой чаты ChatGPT попадали в поиск

Если вбить в Google или Bing ссылку вроде chatgpt.com/share, можно было найти чужие диалоги с ChatGPT — от обсуждений ремонта ванной до странных шуток про микроволновку и сатану. Кто-то просил переписать резюме, кто-то — советы по кулинарии или астрофизике, а кто-то вёл по-настоящему кринжовые разговоры.

Фишка в том, что такие чаты попадали в поиск только если человек сам делился ссылкой — нужно было нажать кнопку «Поделиться» и затем «Создать ссылку».

При этом сервис показывал, что имя и личные настройки остаются скрытыми. Но если включить опцию «Сделать доступным для поиска», такой чат могли найти и другие.

Проблема в том, что пользователи не всегда понимали, что их чат может реально оказаться в поисковике. Так, например, в одном из диалогов были указаны детали, по которым легко находился LinkedIn-аккаунт пользователя — не самая приятная находка, особенно если чат был не самым лестным.

OpenAI уже отреагировала: вечером 31 июля компания заявила, что отключила эксперимент с доступностью чатов для поисковых систем. По словам представителей OpenAI, возможность сделать ссылку общедоступной «создавала слишком много рисков того, что люди случайно поделятся тем, чего не хотели показывать».

В компании подчёркивают: по умолчанию ни один чат не становится публичным. Поделиться им можно только вручную, осознанно. Но даже при этом поисковые системы всё равно могут индексировать такие страницы, если их явно не скрыть.

Google, в свою очередь, напомнила: он не контролирует, какие страницы появляются в интернете — это зависит от самих владельцев контента. Так, если вы открываете документ на Google Drive для всех по ссылке и где-то размещаете эту ссылку, он может попасть в поиск.

Сама идея сделать чаты более доступными для обмена — понятна. Но на практике она обернулась тем, что пользователи начали случайно выкладывать в интернет свои, казалось бы, личные разговоры. Эксперимент закрыт, и, по всей видимости, к нему не вернутся.

В Intel TDX обнаружены уязвимости с риском утечки данных

Intel вместе с Google провела масштабный аудит технологии Trust Domain Extensions (TDX), процессе которого обнаружилось немало проблем. За пять месяцев работы специалисты выявили пять уязвимостей, а также 35 багов и потенциальных слабых мест в коде.

TDX — это аппаратная технология «конфиденциальных вычислений». Она предназначена для защиты виртуальных машин в облаке даже в том случае, если гипервизор скомпрометирован или кто-то из администраторов действует недобросовестно.

По сути, TDX создаёт изолированные «доверенные домены» (Trust Domains), которые должны гарантировать конфиденциальность и целостность данных.

Проверкой занимались исследователи Google Cloud Security и команда Intel INT31. Они анализировали код TDX Module 1.5 — ключевого компонента, отвечающего за работу механизма на высоком уровне. В ход пошли ручной аудит, собственные инструменты и даже ИИ.

В результате обнаружены пять уязвимостей (CVE-2025-32007, CVE-2025-27940, CVE-2025-30513, CVE-2025-27572 и CVE-2025-32467). Их можно было использовать для повышения привилегий и раскрытия информации. Intel уже выпустила патчи и опубликовала официальное уведомление.

Самой серьёзной Google называет CVE-2025-30513. Она позволяла злоумышленнику фактически обойти механизмы безопасности TDX. Речь идёт о сценарии, при котором во время миграции виртуальной машины можно было изменить её атрибуты и перевести её в режим отладки.

Это открывало доступ к расшифрованному состоянию виртуальной машины, включая конфиденциальные данные. Причём атаку можно было провести уже после процедуры аттестации, когда в системе гарантированно присутствуют важные материалы.

Google опубликовала подробный технический отчёт (PDF) объёмом 85 страниц, а Intel — более краткое описание результатов совместной работы.

RSS: Новости на портале Anti-Malware.ru