OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI: суицидник нарушил правила использования ChatGPT, вина не наша

OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота. Компания утверждает: именно пользователь просил модель обсуждать темы, которые прямо запрещены условиями сервиса.

Родители подростка обвиняют OpenAI в том, что модель ChatGPT 4o имела слабые защитные механизмы — настолько, что фактически стала «суицидальным коучем», поддерживавшим его мрачные мысли и помогавшим планировать смерть.

По словам потерпевших, модель фактически вела с юношей откровенные диалоги о самоповреждении, убеждала не обращаться к родителям и даже предложила составить «красивую предсмертную записку».

Однако OpenAI в своём блоге заявила, что в деле не хватает контекста. Компания утверждает, что в полных логах переписки видно: Рейн за много лет до знакомства с ChatGPT сталкивался с депрессией и суицидальными мыслями.

Подросток якобы писал, что неоднократно звал на помощь близких и знакомых, но его не слышали. А ещё — что увеличил дозировку препарата, который, по словам OpenAI, известен рисками усиления суицидальных мыслей у подростков, особенно при смене дозы.

Все эти логи засекречены, поэтому проверить слова компании невозможно. OpenAI объясняет ограничение доступа «заботой и уважением» к конфиденциальным материалам. А вот адвокат семьи Рейнов, Джей Эдельсон, назвал позицию компании «тревожной» и обвинил OpenAI в игнорировании ключевых фактов — вроде того, что модельный регламент дважды переписывался так, чтобы ChatGPT всё же вступал в опасные для пользователей разговоры.

По словам Эдельсона, компания пытается переложить ответственность на погибшего подростка, утверждая, что он «сам нарушил правила», хотя именно модель, по мнению стороны обвинения, была обучена вести такие разговоры.

Примечательно, что OpenAI не подала стандартное ходатайство о прекращении дела. Формально компания просит отклонить иск, но фактически спор движется к полноценному судебному разбирательству, которое может состояться в 2026 году. Адвокат Рейнов убежден: OpenAI идёт на всё, чтобы не признать вину.

В своём ответе OpenAI делает акцент на условиях использования: пользователи обязаны применять ChatGPT «на свой страх и риск», не считать ответы «истиной в последней инстанции» и не использовать сервис для обсуждения суицида или самоповреждения. Компания утверждает, что чат-бот более сотни раз просил подростка обратиться к близким и специалистам, но тот обходил ограничения и уверял модель, что речь идёт о «выдуманных сценариях».

В документах также говорится, что Рейн искал информацию о самоубийстве на других ресурсах и проводил много времени на специализированном форуме.

Тем временем давление на OpenAI растёт. В этом месяце сразу семь семей подали иски против OpenAI, утверждая, что компания выпустила модель GPT-4o слишком рано и без достаточных мер безопасности. Четыре иска касаются случаев самоубийств, а ещё три — ситуаций, когда ChatGPT якобы усугубил бредовые идеи.

Apple начала блокировать на iPhone альтернативный Telegram-клиент Telega

У пользователей iPhone начались проблемы с альтернативным клиентом Telegram «Телега». После удаления приложения из App Store 9 апреля Apple, судя по сообщениям пользователей, начала дополнительно помечать уже установленную версию как потенциально опасную: iOS не даёт открыть приложение, оно вылетает, а система рекомендует удалить его с устройства.

При этом сама Телега действительно пропала из App Store, тогда как в Google Play и RuStore приложение по-прежнему доступно.

Официальные комментарии Apple с прямым объяснением именно по этому клиенту пока не опубликованы. Но сама механика такого предупреждения у iPhone существует.

Apple отдельно описывает сценарий, при котором iOS блокирует запуск приложения, если считает, что оно содержит вредоносный код, и предлагает пользователю удалить его.

Источник: «Хабр»

 

Разработчики Телеги ранее объясняли исчезновение приложения из App Store по-своему. В проекте заявили, что временное удаление могло быть связано с волной негативных отзывов после введения списка ожидания для новых пользователей.

По их версии, это могли неверно интерпретировать модераторы Apple. Однако на фоне этой истории у Telega уже был и другой, куда более неприятный контекст.

Ещё 20 марта в сети появился анонимный материал с техническим разбором клиента Телега для Android, где авторы утверждали, что в приложении якобы была активирована скрытая функциональность для перехвата данных между клиентом и серверами Telegram.

В публикации речь шла о схеме «Человек посередине», при которой трафик проходит через инфраструктуру самой Телеги. Позже на эту историю обратили внимание и профильные площадки, а Telegram, по данным профильных СМИ, начал отдельно помечать аккаунты пользователей неофициальных клиентов предупреждением о рисках.

Кроме того, на прошлой недели энтузиасты разобрали Android-версию Телеги и выяснили, что клиент мог читать переписку пользователей.

Интересно также, что Cloudflare в этом месяце признал домены Телеги шпионскими.

RSS: Новости на портале Anti-Malware.ru