ФРИИ инвестирует 15 млн рублей в сервис предсказательной защиты сайтов

ФРИИ инвестирует 15 млн рублей в сервис предсказательной защиты сайтов

ФРИИ инвестирует 15 млн рублей в сервис предсказательной защиты сайтов

Фонд развития интернет-инициатив вложит 15 млн рублей в облачный «умный» сервис по защите сайтов SiteSecure, предсказывающий риски и источники угроз. Инвестиции пойдут на маркетинг и масштабирование продаж, техническую доработку продукта и усиление команды. Стартап получит деньги в формате «быстрых» инвестиций.

Такой механизм инвестирования позволяет любому проекту Акселератора ФРИИ получать деньги в минимальные сроки — до 40 дней. Команда SiteSecure приняла участие в 8 Акселераторе ФРИИ, в 2015 году получила предпосевные инвестиции от Фонда в размере 1,4 млн рублей на развитие проекта.

SiteSecure — облачный сервис для среднего и малого бизнеса, предоставляющий полную защиту сайта и предупреждающий угрозу заражения интернет-ресурса. В основе анализа технологии — система анализа накопленных статических данных и предсказания источников заражения. В отличие от остальных средств защиты, для настройки которых требуются серьезные технические компетенции, SiteSecure может пользоваться человек без специальной подготовки. Кроме того, проект обладает своим преимуществом — возможностью проактивной защиты веб-сайта (поиск уязвимостей, эмуляция динамического контента для выявления вредоносного кода, оценка риска заражения), эффективно предотвращая потери интернет-бизнеса от угроз.

SiteSecure — единственный российский проект, вышедший в финал конкурса Kaspersky Security Startup Challenge в Бостоне, где соревновались более 20 стартапов по кибербезопасности со всего мира. 

Технология мониторинга сайтов и API интерфейс от SiteSecure уже используются в крупнейшем отраслевом портале участников рынка заказной веб-разработки CMSmagazine и многих других проектах. Из-за хакерских атак и утечек в 2015 году российские компании потеряли около 203 млрд рублей, что в два раза превышает размер рынка интернет-рекламы России в 2015 году (данные АКАР) и больше половины расходов федерального бюджета России на здравоохранение в 2015 году. По прогнозам в 2016 году объем инцидентов информационной безопасности вырастет, особенно заметно это будет в сегменте малого и среднего бизнеса.

«SiteSecure интересен ФРИИ – команде удалось создать технологически качественный продукт, превосходящий по функционалу многие международные аналоги. Объем потенциального спроса на мировом рынке составляет уже около 30 млрд рублей, и рынок сейчас быстро растет, — управляющий инвестиционным портфелем ФРИИ Сергей Негодяев. — Кроме того, технология SiteSecure действительно уникальна, поскольку позволяет идентифицировать и анализировать вредоносные сайты даже быстрее поисковиков».

 «Мы выделили для себя ключевые рынки для развития и продвижения — это Россия и США, где рынок интернет – безопасности растет наиболее интенсивными темпами», — отметил Максим Лагутин, представитель SiteSecure. — Полученные инвестиции мы планируем направить в первую очередь на техническое совершенствование продукта, улучшение интерфейса и автоматизацию защиты, а также формирование базы потенциальных покупателей и повышение узнаваемости бренда в фокусных регионах».

Наиболее востребованными сервисами в области интернет-безопасности сегодня являются решения для защиты от DDoS-атак, средства для страхования ИБ-рисков и мобильные приложения для предотвращения загрузок ботов и программ-прослушек. Объем мирового рынка облачных SaaS-решений в области интернет-безопасности составляет более 460 млн долларов (примерно 30 млрд рублей) с потенциалом роста до 780 млн долларов (примерно 50,7 млрд рублей) к 2019 году.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru