Group-IB и РНТ объявляют о партнерстве

Group-IB и РНТ объявляют о партнерстве

Group-IB и РНТ объявляют о партнерстве

Компании РНТ (Российские наукоемкие технологии) один из ведущих поставщиков решений для обеспечения информационной безопасности государственного сектора, и Group-IB, лидер российского рынка исследования киберугроз, подписали соглашение о намерении разработать принципиально новую технологическую платформу для детектирования, анализа и предотвращения компьютерных атак.

Решение будет предназначено для ведомственных и корпоративных центров Государственной системы обнаружения, предупреждения и ликвидации последствий компьютерных атак на информационные ресурсы Российской Федерации (ГосСОПКА), а также службам информационной безопасности компаний и предприятий отраслей с критической информационной инфраструктурой (ФЗ №47571-7).

Эффективное выявление и предотвращение инцидентов будут обеспечивать три программно-аппаратных комплекса. Его сигнатуры, правила и настройки будет ежедневно обновляться с использованием актуальных сведений об активности проправительственных и частных киберпреступных группировок, киберподразделений террористических организаций и хактивистов.

В состав комплекса входит:

  1. Межсетевой экран, предотвращающий и блокирующий опасные сетевые взаимодействия с использованием индикаторов компрометации, адресов центров управления бот-сетями, подозрительных IP-адресах, доменах и других тактических сведениях об угрозах.
  2. Система детектирования вторжений, выявляющая активность вредоносного кода, удаленное подключение и другие сетевые аномалии.
  3. Система анализа поведения подозрительных объектов в безопасной среде, позволяющая предотвратить проникновение в сеть вредоносного кода в результате фишинговых рассылок, атак на браузер, атак с использованием уязвимостей «нулевого дня» и ранее неизвестного вредоносного ПО. 

Данное решение предназначено для сбора и фиксации широкого спектра сведений об инцидентах, необходимых для оперативного реагирования, для последующего анализа и корреляции внутри сегмента и передачи в главный центр ГосСОПКА.

«Передача индикаторов компрометации и иных сведений о ранее неизвестных угрозах позволит оперативно информировать о новых типах атак все отраслевые сегменты и обогащать силы и средства обнаружения ГосСОПКА. Исследование и корреляция этих данных позволит отслеживать эволюцию тактик и инструментов проправительственных хакерских группировок и технологически развитых киберпреступных групп. Таким образом, партнерство РНТ и Group-IB поможет сделать важный шаг от безопасности отдельных ведомств, предприятий и корпораций к безопасности государства», – сказал Андрей Новиков, генеральный директор АО «РНТ».

«Обладая одной из самых обширных баз знаний о киберпреступности, Group-IB уже на протяжении многих лет поддерживает государственные и частные организации в области предоставления данных Threat Intelligence, позволяя им быть на шаг впереди преступников и предпринимать эффективные превентивные меры, – комментирует Илья Сачков, генеральный директор и основатель Group-IB. – Сотрудничество с РНТ – это важный шаг на пути нашего развития. Он показывает потребность общества в том, что мы делаем, и зрелось наших технологий для работы на государственном уровне».

Комплексное решение дает удобные инструменты для работы сотрудников центра, значительно повышая их эффективность:

  • низкий уровень ложных срабатываний и предотвращение части инцидентов на уровне межсетевого экрана снижает время на обработку событий;
  • наглядное ранжирование событий помогает не пропустить критичный инцидент;
  • система обработки заявок (тикет-система) позволяет организовать централизованный обмен информацией об инциденте и координацию между участниками процесса реагирования.

Для повышения компетенций специалистов по обнаружению атак, установлению причин инцидентов и технических экспертов будут организованы специализированные образовательные курсы и тренинговые программы.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru