ЦБ обещает проверку телефонных номеров, выданных на фейковые данные

ЦБ обещает проверку телефонных номеров, выданных на фейковые данные

ЦБ обещает проверку телефонных номеров, выданных на фейковые данные

Банк России обещает организовать механизм, который не позволит российским операторам связи и посредникам продавать SIM-карты человеку с вымышленными (или «левыми») паспортными данными.

Таким образом, регулятор, помимо прочих проблем, решит вопрос обзвона граждан лицами, отбывающими наказания в местах лишения свободы.

За последние годы с этим столкнулись многие россияне — заключённые пытаются любыми способами развести своих жертв на перевод денежных средств. Как правило, доверчивые граждане «кидают» им деньги на телефон (пополняя баланс), после чего мошенники задействуют схемы по их выводу.

«Мы считаем, что сверка такого идентификатора, как телефон должна очень внимательно отслеживаться», — объяснил Дмитрий Скобелкин, заместитель председателя Банка России.

«Не далее как в прошлую субботу я зашёл в один из магазинов и увидел огромное табло — "Выдаём красивые номера". Я решил поинтересоваться: что значит "красивые номера" и как их можно получить — нужен ли мне паспорт. Оказалось, что ничего не нужно. Заплатив определённое количество денег, вы получите SIM-карту и соответствующий номер».

«То есть я пишу в анкете "Иванов Сидор Петрович" и рисую номер паспорта, который придёт мне в голову. Это же безобразие от сотового оператора, который позволяет использовать свои номера таким образом».

Скобелкин считает, что этот вопрос как раз можно решить сверкой — сразу будет понятно, какие номера оформлены на ложные паспортные данные. Такие номера даже можно блокировать, поскольку они явно не принадлежат тем лицам, которые пытаются ими воспользоваться.

Все эти проблемы планируется решить законопроектом № 514780-7 «Об обмене информацией между операторами связи и финансовыми организациями в части создания Единой информационной проверки сведений об абоненте».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru