Group-IB TI&A соответствует рекомендациям Минюста США

Group-IB TI&A соответствует рекомендациям Минюста США

Group-IB TI&A соответствует рекомендациям Минюста США

Компания Group-IB сообщила о соответствии рекомендациям Министерства юстиции США в области кибербезопасности и киберразведки высокотехнологичной системы Group-IB Threat Intelligence & Attribution.

Основанная на инновационных технологиях, подтвержденных более чем 30 патентами в разных странах мира, Group-IB TI&A предназначена для сбора данных об угрозах и атакующих, релевантных для конкретной организации, с целью исследования, проактивной охоты за хакерами и защиты сетевой инфраструктуры. Проверка технологий Group-IB TI&A проводилась одной из компаний «Большой четверки» (Big Four), которая подтвердила их соответствие отраслевым рекомендациям в области сбора данных киберразведки.

Group-IB является первым вендором в сфере кибербезопасности, предложившим рынку высокотехнологичное решение, разработанное командой инженеров компании и способное создавать динамическую карту угроз под каждую компанию, ее клиентов и партнеров. Group-IB TI&A соединяет разрозненные события вокруг атаки, обеспечивая возможность атрибутировать угрозы, анализировать вредоносный код и немедленно реагировать на инцидент. Каждый специалист, использующий TI&A, получает доступ к крупнейшей коллекции данных даркнета, продвинутой модели профилирования хакерских групп, а также полностью автоматизированному графовому анализу, который за секунды помогает провести корреляцию данных и атрибутировать угрозы до конкретной преступной группы.

Рекомендации Департамента Юстиции США (Legal Considerations when Gathering Online Cyber Threat Intelligence and Purchasing Data from Illicit Sources (Version 1.0, February 2020)) на текущий момент являются первым в мире сводом правил, описывающим принципы частных компаний в сфере сбора данных киберразведки. Цель документа — регламентировать этот процесс, чтобы снизить правовые риски для организаций, занимающихся изучением угроз на даркнет-форумах.

В ходе проверки независимые эксперты одной из компаний-аудиторов «Большой четверки» проанализировали, каким образом Group-IB получает доступ к закрытым веб-ресурсам и собирает информацию на них, а также политики, внедренные компанией для регулирования перечисленных процедур.

Продукты Group-IB представлены на рынках более 60 стран мира. Работая в разных юрисдикциях, Group-IB уделяет особое внимание соблюдению технических отраслевых стандартов, чтобы обеспечить наилучшее качество взаимодействия с клиентами. Успешно пройденная проверка системы Group-IB Threat Intelligence & Attribution, осуществленная одной из крупнейших международных аудиторских компаний, подтверждает стремление компании следовать ведущим мировым практикам в сфере кибербезопасности.

«Group-IB стремится обеспечивать защиту своих клиентов на самом высоком уровне, — отмечает Дмитрий Волков, технический директор и глава киберразведки Group-IB. — Соответствие Group-IB рекомендациям американского регулятора в области сбора данных киберразведки является важным показателем зрелости внутреннего контроля компании и ее приверженности принципам, признанным в профессиональном сообществе».

Group-IB Threat Intelligence & Attribution является частью экосистемы высокотехнологичных продуктов для исследования киберугроз и охоты за атакующими Group-IB, которая была представлена на международной конференции CyberCrimeCon в конце ноября 2020 г. В центре внимания Group-IB TI&A — атакующие. Вокруг них выстроена вся идеология системы: выявить не только угрозу, но и того, кто за ней стоит. Массивы данных, которыми она оперирует, помогают оперативно связывать атаку с группировкой или конкретными персоналиями. TI&A «умеет» анализировать и атрибутировать угрозы, с которыми уже столкнулась компания, обнаруживать утечки и компрометацию пользователей, идентифицировать инсайдеров, торгующих данными компании на андеграудных ресурсах, выявлять и блокировать атаки, нацеленные на компанию и ее клиентов, независимо от отрасли.

Таким образом, TI&A позволяет обнаруживать атаки, не покрываемые традиционными средствами защиты, глубже понимать методы работы продвинутых атакующих, а также оценивать, может ли им противостоять защищаемая инфраструктура. Такой подход помогает мотивировать и совершенствовать внутренние команды кибербезопасности, а также усиливать их экспертизу за счет глубокого понимания ландшафта угроз для защищаемой инфраструктуры.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru