Google+ не жалует псевдонимы

Google+ не жалует псевдонимы

Социальная сеть Google+ решила запретить использование псевдонимов и никнеймов вместо настоящих имён. Однако, в ответ на обратную связь после этого решения, пользователи не будут отключены мгновенно за нарушение так называемой Политики обычных имён Google (Google’s Common Names Policy).

Изменения наступили неделями позже того, как Google попала под огонь за отключение многочисленных аккаунтов, которые нарушали Политику обычных имён Google. Политика, направленная на противодействие спаму и предотвращение создания ложных профилей, отключила некоторые популярные профили за использование их владельцами широко известных псевдонимов взамен настоящих имён. Это привело к вспышке критики и к вопросам о возможных проблемах с безопасностью.

Это не остановило Google от решения устранить использование псевдонимов в этой социальной сети. Руководитель Google+ Саураб Шарма (Saurabh Sharma) пояснил, что данное решение было принято «для того, чтобы сделать связи между людьми в интернет-пространстве больше похожими на связи людей в реальном мире» с помощью Google+.

Однако, Шарма также анонсировал изменения – вместо мгновенного отключения аккаунтов при нарушении политики компания будет давать пользователям четыре дня отсрочки для того, чтобы они могли исправить имена своих профилей перед тем, как они будут отключены.

– В течение этого периода вы можете продолжать использовать Google+ как обычно, – сказал Шарма. – Мы надеемся, что большая часть пользователей-нарушителей сумеют быстро решить проблему с именами их профилей, продолжая при этом наслаждаться всем, что может предложить Google+.

Последовавшая ответная реакция пользователей Google+ на заявление была чрезвычайно отрицательной. Некоторые отклики были весьма жёсткими. Ниже представлена выборка откликов:

– Ты всё ещё не понимаешь это, да? © Ларри МакГрегор (+105)

– Что насчёт людей, которые изолированы в реальном мире из-за обстоятельств их реальной жизни? Они правда больше не смогут общаться? Это весьма прискорбно. © Мелисса Дрэйпер (+53)

– Если кто-то ещё собирается сделать что-то подобное, возьмите пример Леди Гага; какие решающие факторы вы рассматривали, чтобы определить, с чем столкнётся ваша Политика имён? Я всё ещё не уверен в том, что вы, ребята, находитесь на правильном пути. По правде говоря, вы много потеряли. © Грегг Ванчияк (+49)

– Если я решу использовать там своё настоящее имя, могу ли я подать в суд на Google, когда какой-нибудь кретин окажется на моём пороге? Почему Google поощряет всех, кто делает себя таким образом уязвимым? © Миссис Форс (+22)

Одна из вокальных групп против этого изменения, больше из соображений безопасности. Более серьёзная проблема Google может состоять в том, чтобы найти способ навязать свою Политику обычных имён последовательными мерами. Некоторые пользователи используют псевдонимы и в реальной жизни – они должны использовать свои настоящие имена или их более употребляемые псевдонимы понравятся Google+ больше? Где эта пограничная линия?

По мнению Бена Парра, Google+, очевидно, испытывает болезнь роста, – ей подвержены некоторые новые социальные сети. Независимо от того, появляются ли на радаре дебаты по поводу обычных имён или даёт о себе знать проблема выносливости.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru