Вышло обновление StaffCop Enterprise 3.0

Вышло обновление StaffCop Enterprise 3.0

Вышло обновление StaffCop Enterprise 3.0

Компания «Атом Безопасность», представила свежую версию решения StaffCop Enterprise 3.0 - предназначенного для мониторинга рабочих станций и терминальных серверов с целью предотвращения утечек конфиденциальных данных, расследования инцидентов информационной безопасности, учёта рабочего времени сотрудников и анализа продуктивности их работы за ПК.

Благодаря переработанному ядру и оптимизации механизма генерации отчётов скорость обработки данных увеличилась более чем в 30 раз.  Как и было обещано, разработчики добавили модуль контентного анализа файлов. Так же появилась возможность просмотра удалённого рабочего стола, в любой момент сотрудник отдела безопасности может в живую посмотреть чем занимается тот или иной сотрудник. Эта функция является первым шагом к полноценному  функционалу удалённого администрирования рабочих мест.

Обновлённый агент (endpoint-модуль) теперь работает на более низком системном уровне, что до минимума снижает возможность конфликта с различными службами.

«Благодаря новым функциям StaffCop Enterprise позволяет обеспечить качественно новый уровень выявления и предотвращения утечек конфиденциальных данных, – прокомментировал выход новой версии Дмитрий Кандыбович, генеральный директор компании Атом Безопасность, – в ближайшем будущем мы планируем реализовать функции удалённого администрирования рабочих станций в полной мере, добавить новые каналы контроля потоков информации, а также сделать систему мультиплатформенной.»

Основные нововведения StaffCop Enterprise 3.0:

  1. Оптимизировано ядро StaffCop – кардинально улучшена скорость работы
  2. Оптимизирован механизм составления отчётов
  3. Добавлен модуль контентного анализа файлов
  4. Добавлена функция удалённого просмотра рабочего стола
  5. Появился конструктор графов взаимосвязей
  6. Новая визуализация просмотра скриншотов в виде плитки
  7. Агент стал «умным», благодаря работе на более низком уровне системы обеспечена его бесконфликтность
  8. Добавлен линейный график выявления аномалий поведения пользователей
  9. Добавлена возможность писать свои фильтры на языке Python
  10. Интегрирована функция высвобождения конкурентных лицензий.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru