Google+ не жалует псевдонимы

Google+ не жалует псевдонимы

Социальная сеть Google+ решила запретить использование псевдонимов и никнеймов вместо настоящих имён. Однако, в ответ на обратную связь после этого решения, пользователи не будут отключены мгновенно за нарушение так называемой Политики обычных имён Google (Google’s Common Names Policy).

Изменения наступили неделями позже того, как Google попала под огонь за отключение многочисленных аккаунтов, которые нарушали Политику обычных имён Google. Политика, направленная на противодействие спаму и предотвращение создания ложных профилей, отключила некоторые популярные профили за использование их владельцами широко известных псевдонимов взамен настоящих имён. Это привело к вспышке критики и к вопросам о возможных проблемах с безопасностью.

Это не остановило Google от решения устранить использование псевдонимов в этой социальной сети. Руководитель Google+ Саураб Шарма (Saurabh Sharma) пояснил, что данное решение было принято «для того, чтобы сделать связи между людьми в интернет-пространстве больше похожими на связи людей в реальном мире» с помощью Google+.

Однако, Шарма также анонсировал изменения – вместо мгновенного отключения аккаунтов при нарушении политики компания будет давать пользователям четыре дня отсрочки для того, чтобы они могли исправить имена своих профилей перед тем, как они будут отключены.

– В течение этого периода вы можете продолжать использовать Google+ как обычно, – сказал Шарма. – Мы надеемся, что большая часть пользователей-нарушителей сумеют быстро решить проблему с именами их профилей, продолжая при этом наслаждаться всем, что может предложить Google+.

Последовавшая ответная реакция пользователей Google+ на заявление была чрезвычайно отрицательной. Некоторые отклики были весьма жёсткими. Ниже представлена выборка откликов:

– Ты всё ещё не понимаешь это, да? © Ларри МакГрегор (+105)

– Что насчёт людей, которые изолированы в реальном мире из-за обстоятельств их реальной жизни? Они правда больше не смогут общаться? Это весьма прискорбно. © Мелисса Дрэйпер (+53)

– Если кто-то ещё собирается сделать что-то подобное, возьмите пример Леди Гага; какие решающие факторы вы рассматривали, чтобы определить, с чем столкнётся ваша Политика имён? Я всё ещё не уверен в том, что вы, ребята, находитесь на правильном пути. По правде говоря, вы много потеряли. © Грегг Ванчияк (+49)

– Если я решу использовать там своё настоящее имя, могу ли я подать в суд на Google, когда какой-нибудь кретин окажется на моём пороге? Почему Google поощряет всех, кто делает себя таким образом уязвимым? © Миссис Форс (+22)

Одна из вокальных групп против этого изменения, больше из соображений безопасности. Более серьёзная проблема Google может состоять в том, чтобы найти способ навязать свою Политику обычных имён последовательными мерами. Некоторые пользователи используют псевдонимы и в реальной жизни – они должны использовать свои настоящие имена или их более употребляемые псевдонимы понравятся Google+ больше? Где эта пограничная линия?

По мнению Бена Парра, Google+, очевидно, испытывает болезнь роста, – ей подвержены некоторые новые социальные сети. Независимо от того, появляются ли на радаре дебаты по поводу обычных имён или даёт о себе знать проблема выносливости.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru