Microsoft рекомендует обновить сертификаты безопасности

Microsoft рекомендует обновить сертификаты безопасности

По сложившейся традиции сегодня Microsoft планирует выпустить очередной патч, в котором исправлены две важные уязвимости, а также выпущено обновление для антивирусного приложения. Но, кроме этого, корпорация напоминает администраторам операционной системы Windows проверить корректность используемых сертификатов безопасности.

В планируемых к выпуску бюллетенях безопасности предусмотрено исправление для двух важных уязвимостей, обнаруженных в Microsoft Visual Studio Team Foundation Server 2010 (Service Pack 1) и System Center Configuration Manager. При их успешной эксплуатации злоумышленник мог получить доступ к системе с повышенными правами. Наряду с этим, корпорация выпустила обновления для Windows Malicious Software Removal Tool, которое можно загрузить с сервера компании.

Однако, помимо этого, Microsoft настоятельно рекомендует администраторам операционной системы Windows (ОС) провести более детальную инспекцию своих систем на предмет наличия устаревших ключей безопасности. Поскольку начиная с октября месяца текущего года минимальный размер ключа RSA будет увеличен до 1024 бит на всех поддерживаемых версиях операционной системы Windows, вплоть до XP Service Pack 3. Это означает, что использование устаревших ключей может привести к серьезным проблемам и сбоям в работе системы.

Иными словами, в случае если администратор не произведет замену ключей до выхода октябрьского патча, то, как только обновление будет установлено, Internet Explorer заблокирует доступ к SSL веб-сайтам, где используются сертификаты с размером ключа менее чем 1024 бит. Кроме этого Outlook 2010 не сможет подключиться к почтовому серверу Exchange Server, не будут использоваться шифрование и цифровые подписи. Приложения и ActiveX, у которых ключи менее чем 1024 бит, могут быть установлены не корректно, либо могут возникнуть другие сложности.

Как заявили в Microsoft, летом этого года клиентам, желающим заранее подготовиться к нововведению, было предложено загрузить патч и проверить работоспособность данной системы. В настоящий момент, корпорация настоятельно рекомендует администраторам, которые еще не успели повести ревизию используемых ключей, загрузить обновление как можно скорей.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru