OpenAI заявила, что будет направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустит родительский контроль. Компания пошла на эти шаги после резонансных случаев, когда ChatGPT не смог распознать психическое состояние собеседников.
Самый громкий эпизод — гибель подростка Адама Рейна, который обсуждал с ChatGPT мысли о самоубийстве, а система даже подсказала ему конкретные методы.
Родители подали против OpenAI иск. Другой случай — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.
Теперь OpenAI обещает, что опасные разговоры будут автоматически перенаправляться на более «осторожные» модели, которые дольше анализируют контекст и лучше противостоят вредным запросам.
Родители получат инструменты для контроля: возможность ограничивать функции чата и получать уведомления, если подросток находится в состоянии сильного стресса.
Но адвокат семьи Рейнов Джей Эдельсон считает меры компании запоздалыми и недостаточными. По его словам, OpenAI знала о рисках ещё до запуска продукта, и глава компании Сэм Альтман должен либо признать ChatGPT безопасным, либо убрать его с рынка.
Комментирует Сергей Хайрук, аналитик InfoWatch:
«Не исключено, что история про утечку данных – ловкий ход представителей Twitter, которые предполагали падение акций сервиса и предоставили публике удобное объяснение – акции падают не только из-за плохих финансовых результатов, но и из-за утечки данных. Кстати, Selerity заявляет, что отчетность получена с официального сайта Twitter, и никакой утечки или взлома не было».