Roblox будет делить пользователей по возрасту

Roblox будет делить пользователей по возрасту

Roblox будет делить пользователей по возрасту

Roblox Corporation объявила о введении обязательной проверки возраста пользователей для доступа к коммуникационным функциям платформы, включая чат. Верификация будет проводиться с помощью встроенной камеры устройства. С января 2026 года эта процедура станет обязательной для всех игроков.

Как заявила компания, уже с момента анонса работает добровольная проверка возраста. В ряде стран — среди них Австралия, Новая Зеландия и Нидерланды — обязательная верификация вступит в силу уже в декабре текущего года.

После прохождения проверки пользователи будут разделены на шесть возрастных категорий: младше 9 лет, 9–12, 13–15, 16–17, 18–20 и старше 21 года. Общение будет разрешено только внутри своей категории и соседних возрастных групп. По замыслу Roblox, это должно ограничить контакт детей и подростков с незнакомыми взрослыми.

«Roblox хочет запретить злоумышленникам общаться с детьми. Сайт с видеоиграми ежедневно посещает 151 миллион пользователей, треть из которых младше 13 лет», — пишет Bloomberg.

По мнению Bloomberg, компания пошла на этот шаг под давлением властей разных стран: дети и подростки составляют около трети её аудитории. На проблемы платформы указывали и в России — профильный главк МВД обращал внимание на отсутствие возрастных проверок и слабую модерацию, что позволяет педофилам, сталкерам и мошенникам использовать платформу в своих целях.

Однако в Госдуме восприняли нововведение скептически. Член комитета по информационной политике Антон Немкин заявил в комментарии РИА Новости, что этот шаг не решает ключевых проблем платформы:

«Введение возрастной верификации в Roblox — шаг, который компания преподносит как фундаментальное усиление защиты детей. Однако в реальности это скорее косметическая мера, не затрагивающая системных проблем платформы. Roblox остаётся пространством с крайне низким порогом входа, минимальной проверкой личности и слабой модерацией, что делает её уязвимой для злоумышленников, которые продолжают использовать доверчивость детей в своих целях».

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru