OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота. Компания утверждает: именно пользователь просил модель обсуждать темы, которые прямо запрещены условиями сервиса.

Родители подростка обвиняют OpenAI в том, что модель ChatGPT 4o имела слабые защитные механизмы — настолько, что фактически стала «суицидальным коучем», поддерживавшим его мрачные мысли и помогавшим планировать смерть.

По словам потерпевших, модель фактически вела с юношей откровенные диалоги о самоповреждении, убеждала не обращаться к родителям и даже предложила составить «красивую предсмертную записку».

Однако OpenAI в своём блоге заявила, что в деле не хватает контекста. Компания утверждает, что в полных логах переписки видно: Рейн за много лет до знакомства с ChatGPT сталкивался с депрессией и суицидальными мыслями.

Подросток якобы писал, что неоднократно звал на помощь близких и знакомых, но его не слышали. А ещё — что увеличил дозировку препарата, который, по словам OpenAI, известен рисками усиления суицидальных мыслей у подростков, особенно при смене дозы.

Все эти логи засекречены, поэтому проверить слова компании невозможно. OpenAI объясняет ограничение доступа «заботой и уважением» к конфиденциальным материалам. А вот адвокат семьи Рейнов, Джей Эдельсон, назвал позицию компании «тревожной» и обвинил OpenAI в игнорировании ключевых фактов — вроде того, что модельный регламент дважды переписывался так, чтобы ChatGPT всё же вступал в опасные для пользователей разговоры.

По словам Эдельсона, компания пытается переложить ответственность на погибшего подростка, утверждая, что он «сам нарушил правила», хотя именно модель, по мнению стороны обвинения, была обучена вести такие разговоры.

Примечательно, что OpenAI не подала стандартное ходатайство о прекращении дела. Формально компания просит отклонить иск, но фактически спор движется к полноценному судебному разбирательству, которое может состояться в 2026 году. Адвокат Рейнов убежден: OpenAI идёт на всё, чтобы не признать вину.

В своём ответе OpenAI делает акцент на условиях использования: пользователи обязаны применять ChatGPT «на свой страх и риск», не считать ответы «истиной в последней инстанции» и не использовать сервис для обсуждения суицида или самоповреждения. Компания утверждает, что чат-бот более сотни раз просил подростка обратиться к близким и специалистам, но тот обходил ограничения и уверял модель, что речь идёт о «выдуманных сценариях».

В документах также говорится, что Рейн искал информацию о самоубийстве на других ресурсах и проводил много времени на специализированном форуме.

Тем временем давление на OpenAI растёт. В этом месяце сразу семь семей подали иски против OpenAI, утверждая, что компания выпустила модель GPT-4o слишком рано и без достаточных мер безопасности. Четыре иска касаются случаев самоубийств, а ещё три — ситуаций, когда ChatGPT якобы усугубил бредовые идеи.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

Сотрудники и клиенты OpenAI начали получать письма, в которых утверждается, что аналитический сервис Mixpanel, который компания использовала на платформе для API (platform.openai.com), столкнулся с киберинцидентом. Как подчёркивает OpenAI, взлом произошёл не в её собственных системах — проблема возникла именно на стороне подрядчика.

По данным OpenAI, 9 ноября 2025 года Mixpanel обнаружил, что злоумышленник получил несанкционированный доступ к части внутренней инфраструктуры и выгрузил набор данных с идентификационной информацией пользователей.

25 ноября Mixpanel передал OpenAI копию затронутого массива, после чего компания начала рассылку уведомлений.

OpenAI уверяет, что никаких переписок, запросов к API, ключей, паролей, платёжных данных или документов пользователей злоумышленники не получили. Утечка затронула только «ограниченную аналитику», которая собиралась через браузер.

В набор попали:

  • имя, указанное в API-аккаунте;
  • адрес электронной почты;
  • примерная геолокация по браузеру (город, штат / регион, страна);
  • операционная система и браузер;
  • рефереры (сайты, откуда пользователь перешёл на платформу);
  • идентификаторы пользователя или организации в системе OpenAI.

После обнаружения проблемы OpenAI полностью отключила Mixpanel от продакшн-среды, проанализировала выгруженные данные и начала уведомлять всех затронутых администраторов и пользователей. Компания заявляет, что не видит признаков злоупотребления этими данными, но продолжает мониторинг.

В письме подчёркивается, что такие сведения могут быть использованы в фишинговых атаках или схемах социальной инженерии. Пользователям рекомендуют быть особенно внимательными к письмам, якобы пришедшим от OpenAI, и действовать только через официальные домены. Компания напоминает, что она никогда не запрашивает пароли, API-ключи или коды подтверждения через почту или мессенджеры.

OpenAI также объявила, что прекращает использовать Mixpanel и начинает пересматривать безопасности всех внешних подрядчиков, ужесточая требования по защите данных.

Пользователям предложено обратиться по вопросам к команде поддержки или на специальный адрес mixpanelincident@openai.com.

Напомним, OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru