ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

97% компаний в России внедряют ИИ, но 54% не видят его ценности

UserGate изучила, как российские компании внедряют инструменты на базе ИИ и что мешает делать это быстрее. Опрос прошёл в январе 2026 года, в нём участвовали 335 топ-менеджеров компаний с выручкой от 100 млн рублей в год. Картина получилась довольно показательная: 97% компаний уже используют ИИ, тестируют его в пилотах или собираются внедрять в ближайшее время.

То есть искусственный интеллект из разряда «модного тренда» окончательно перешёл в категорию рабочих инструментов.

Чаще всего ИИ применяют для вполне прикладных задач. На первом месте — генерация отчётов и аналитики (42%). Далее идут оптимизация сетевой инфраструктуры (38%), анализ больших массивов логов (37%), ускорение расследований инцидентов (35%) и повышение эффективности Help Desk (32%).

Иными словами, бизнес в первую очередь использует ИИ там, где он помогает сэкономить время и ресурсы или усилить функции безопасности.

Интересно, что приоритеты зависят от масштаба компании. В корпоративном сегменте более 60% респондентов указали анализ больших логов как ключевое направление — что логично при объёмах данных в крупных ИТ-ландшафтах. В среднем бизнесе на первый план выходит оптимизация сетевой инфраструктуры (45%).

При этом 7% компаний пока вообще не рассматривают внедрение ИИ. Главные причины — неясная ценность технологии (54%) и неопределённость рисков (38%). Также среди барьеров называют отсутствие чёткого распределения ответственности (29%), ограниченные бюджеты (29%) и нехватку экспертизы (17%). По сути, речь идёт не столько о скепсисе, сколько о нехватке понимания, как именно внедрять ИИ и как управлять связанными с ним рисками.

Отдельно респондентов спросили, какие технологии окажут наибольшее влияние на кибербезопасность в ближайшие 12 месяцев. Лидером стали ИИ и машинное обучение — их назвали около половины представителей коммерческого и государственного сегментов. Даже те компании, которые пока осторожничают с практическим внедрением, всё равно рассматривают машинное обучение как ключевой фактор трансформации ИБ в среднесрочной перспективе.

Как отмечает руководитель отдела стратегической аналитики UserGate Юлия Косова, бизнес уже активно использует ИИ в операционных и защитных сценариях, но ожидания рынка зачастую опережают текущую практику. Дальнейший эффект, по её словам, будет зависеть от зрелости процессов, качества данных и способности управлять рисками.

RSS: Новости на портале Anti-Malware.ru