Ещё семь семей обвинили ChatGPT в доведении юзеров до самоубийства

Ещё семь семей обвинили ChatGPT в доведении юзеров до самоубийства

Ещё семь семей обвинили ChatGPT в доведении юзеров до самоубийства

Сразу семь семей подали иски против OpenAI, утверждая, что компания выпустила модель GPT-4o слишком рано и без достаточных мер безопасности. Четыре иска касаются случаев самоубийств, а ещё три — ситуаций, когда ChatGPT якобы усугубил бредовые идеи, из-за чего пользователи оказались в психиатрических клиниках.

Один из самых трагичных эпизодов связан с 23-летним Зейном Шэмблином. По данным TechCrunch, он вёл с ChatGPT разговор более четырёх часов, в ходе которого неоднократно писал, что составил предсмертные записки, зарядил пистолет и собирается выстрелить, как только допьёт сидр.

Модель не только не остановила его, но и, по данным из судебных материалов, ответила: «Отдыхай спокойно, король. Ты всё сделал правильно».

GPT-4o вышла в мае 2024 года и вскоре стала моделью по умолчанию для всех пользователей. Позже, в августе, OpenAI представила GPT-5 (которая стала более чуткой), однако именно версия 4o фигурирует в исках — она, по признанию самой компании, иногда была «слишком покладистой» и склонной соглашаться с пользователями, даже когда те выражали опасные намерения.

«Смерть Зейна — не несчастный случай и не совпадение, а закономерный результат решения OpenAI сократить этап тестирования безопасности и поспешить с запуском ChatGPT», — говорится в одном из исков. Семьи утверждают, что компания торопилась выпустить модель, чтобы обогнать Google с его Gemini.

Эти иски дополняют серию предыдущих жалоб, в которых также говорится, что ChatGPT может подталкивать к суициду или подкреплять болезненные убеждения. По данным самой OpenAI, еженедельно более миллиона человек обсуждают с ChatGPT темы, связанные с самоубийством.

Один из таких случаев — история 16-летнего Адама Рейна. Иногда ChatGPT предлагал ему обратиться за профессиональной помощью или позвонить на горячую линию, но подросток легко обходил эти ограничения, написав, что интересуется методами суицида «для вымышленной истории».

Другой случай — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

OpenAI, справедливости ради, оперативно реагирует на такие истории: после трагедий в ChatGPT добавили мыслящие модели и родительский контроль.

ФБР восстановило сообщения Signal с iPhone через уведомления iOS

Стало известно, что ФБР смогло извлечь содержимое удалённых сообщений Signal с iPhone, используя данные из внутренней базы уведомлений iOS. Речь идёт о деле, связанном с группой людей, которых обвиняли в поджоге фейерверков и вандализме на территории центра содержания мигрантов ICE Prairieland Detention Facility в Техасе.

Об этом сообщает 404 Media со ссылкой на материалы недавнего судебного разбирательства в США.

В ходе процесса агент ФБР Кларк Уиторн рассказал о собранных доказательствах. Как следует из описания, входящие сообщения Signal удалось восстановить с телефона обвиняемой Линетт Шарп даже после того, как само приложение было удалено с устройства.

Судя по этим данным, сообщения сохранились во внутреннем хранилище уведомлений Apple. При этом речь шла только о входящих сообщениях — исходящие, как утверждается, получить не удалось.

Как отмечает 404 Media, в Signal есть настройка, которая скрывает текст сообщения в уведомлениях. Но, судя по всему, в этом случае такая защита включена не была. Именно поэтому содержимое входящих сообщений могло попасть в системную базу уведомлений и сохраниться там даже после удаления самого мессенджера.

Технических подробностей о том, как именно ФБР добралось до этих данных, пока нет. Многое зависит от состояния устройства на момент извлечения информации: был ли iPhone заблокирован, разблокирован, находился ли он в режиме до первой разблокировки или уже после неё. У iOS в каждом таком сценарии свои ограничения на доступ к данным.

Тем не менее сама история хорошо показывает, что iPhone хранит довольно много локальной информации, полагаясь на внутренние механизмы защиты. Это удобно для пользователя, но в отдельных ситуациях может сыграть и против него — особенно если уведомления содержат личный текст.

Ещё один любопытный момент связан с пуш-уведомлениями. Как подчёркивается в публикации, токен для их доставки не обязательно сразу перестаёт работать после удаления приложения. То есть сервер может продолжать отправлять уведомления, а уже сам iPhone решает, как с ними поступать. Это теоретически тоже могло повлиять на сохранение данных.

На этом фоне особенно интересно выглядит недавнее изменение в iOS 26.4, где Apple обновила механизм проверки пуш-токенов. Прямой связи с этим делом никто не подтверждал, но совпадение по времени выглядит примечательно.

Напомним, недавно ФБР столкнулось с неожиданным препятствием при расследовании утечки конфиденциальных данных: Lockdown Mode на iPhone журналистки Washington Post фактически заблокировал доступ к содержимому устройства.

RSS: Новости на портале Anti-Malware.ru