IBM анонсировала бюджетную систему хранения данных - Общий форум по информационной безопасности - Форумы Anti-Malware.ru Перейти к содержанию
AM_Bot

IBM анонсировала бюджетную систему хранения данных

Recommended Posts

AM_Bot

IBM.jpgIBM анонсировала новую систему хранения начального уровня Storwize V3700, стоимость которой стартует с 11 000 долларов. В IBM говорят, что из всех продаваемых компанией систем хранения, V3700 - является самой дешевой.

подробнее

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
IBM.jpgIBM анонсировала новую систему хранения начального уровня Storwize V3700, стоимость которой стартует с 11 000 долларов. В IBM говорят, что из всех продаваемых компанией систем хранения, V3700 - является самой дешевой.

подробнее

Я всегда строил системы хранения сам (по крайней мере для личного применения), так как никогда не мог понять принципы ценнообазования. У меня калькуляция получается такая:

1. Серверный корпус на 3U (он оптимальнее 2 U, так как у него корзинка на "морде" на 24 диска + охлаждение лучше и тише за счет того, что после корзинки можно поставить 4 штуки больших тихиходных вентилятора или сделанную на заказ "улитку", которая при шуме 45 дб будет тянуть воздух как пылесос). С блоком питания и всякими мелочами типа DVD-ROM и рельс для установки в стойку он будет стоить до 1 кб

2. Серверная материнка, память, процессор, хорошая сетевая карточка 2*1Гбит. В сумме не более 1 кб, реально дешевле (в моем домашнем файлсторадже наприме стоит Core i5 и 8 Гб ОЗУ - больше файлопомойке не нужно)

3. Хороший "железный" RAID контроллер. Минимум 1 кб ценой, но он того стоит (и будет поддерживать все мыслимые чудеса с массивами, типа гибридного RAID SSD+HDD, SSD кеширования ... у контроллера будет бортовой кеш)

4. Операционка. Можно утсановить Linux (бесплатно), Win Server 2008 (до 1 к) с ролью файлсерера

Итого 1+1+1+1 = 4 кб максимум !! (кб = килобакс, 1000$ в мирное время, 1024 - в военное :) ). Предложенное решение стоит в 3 раза дороже ... хотя позиционируется как бюджетное

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust
Я всегда строил системы хранения сам (по крайней мере для личного применения), так как никогда не мог понять принципы ценнообазования. У меня калькуляция получается такая:

1. Серверный корпус на 3U (он оптимальнее 2 U, так как у него корзинка на "морде" на 24 диска + охлаждение лучше и тише за счет того, что после корзинки можно поставить 4 штуки больших тихиходных вентилятора или сделанную на заказ "улитку", которая при шуме 45 дб будет тянуть воздух как пылесос). С блоком питания и всякими мелочами типа DVD-ROM и рельс для установки в стойку он будет стоить до 1 кб

2. Серверная материнка, память, процессор, хорошая сетевая карточка 2*1Гбит. В сумме не более 1 кб, реально дешевле (в моем домашнем файлсторадже наприме стоит Core i5 и 8 Гб ОЗУ - больше файлопомойке не нужно)

3. Хороший "железный" RAID контроллер. Минимум 1 кб ценой, но он того стоит (и будет поддерживать все мыслимые чудеса с массивами, типа гибридного RAID SSD+HDD, SSD кеширования ... у контроллера будет бортовой кеш)

4. Операционка. Можно утсановить Linux (бесплатно), Win Server 2008 (до 1 к) с ролью файлсерера

Итого 1+1+1+1 = 4 кб максимум !! (кб = килобакс, 1000$ в мирное время, 1024 - в военное :) ). Предложенное решение стоит в 3 раза дороже ... хотя позиционируется как бюджетное

Ну Олег, то, что вы описываете будет всегда иметь, только один Рейд-контроллер, ограниченный набор протоколов доступа, плюс там нет специализированной ОС, предуматривающей, например, интеллектуальное кеширование, снепшоты и тому подобный функционал. Дома может и покатит, в продакшене как бе нет.

P.S. Хотя сам по себе Сторвайз с т.з. ценовой политики довольно странная система.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
Ну Олег, то, что вы описываете будет всегда иметь, только один Рейд-контроллер, ограниченный набор протоколов доступа, плюс там нет специализированной ОС, предуматривающей, например, интеллектуальное кеширование, снепшоты и тому подобный функционал. Дома может и покатит, в продакшене как бе нет.

P.S. Хотя сам по себе Сторвайз с т.з. ценовой политики довольно странная система.

А зачем несколько контроллеров ? (в современную серверную материнку можно поставить как минимум 2 "взрослых" контроллера + задействовать ее бортовой. Я в домашнем решении применил Adaptec 52445 - его как раз хватает на все корзинки без экспандеров, причем более чем на 24 портов на сторадж не надо, там дисков столько не будет. Интеллектуальное кеширование Linux и Win2008 дает, плюс кеш самого контроллера, плюс всякие интеллектуальные кеши за счет переноса часто читаемых данных в SSD. Причем в итоге все операции "утыкаются" в пропускную способность гигабитного Ethernet и получается, что суперскорость не нужна... В плане развития выстроить масштабное решение из описанных мной "бытовых" хранилищ с помощью DFS - это тоже не проблема.

Меня собственно ценовая политика и удивила, так как такой ценник многоват для системы начального уровеня. И имхо это общая беда рынка серверов - берем как пример Depo, отдираем их этикетку - под ней Supermicro. Если отодрать супермикро - останется дешевый китайский серверный корпус, средние по надежности и цене компоненты и риторический вопрос "а почему так дорого" :)

  • Upvote 5

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Олег давайте я напишу, что отличает СХД и одновременно попытаюсь ответить на ваши вопросы.

0. В современных СХД, всегда два независимых контроллера, две "головы" в которых идёт синхронизация кеша с обрабатываемыми данными. В физический сервер вы два контроллера в режиме active/active не получите никогда. Следовательно при отказе контроллера вы курите бамбук.

1. В современных СХД типа NetApp или EMC, каждый контроллер или storage processor у вас имеет возможность предоставлять LUN'ы серверам по различным протоколам, как фаловым CIFS, NFS так и блочным (чего ваше решение с Вин сервер никогда не сможет) типа FC или iSCSI.

2. Ресурсы системы хранения могут предоставляться множеству серверов одновременно, это фундаментальное отличие на самом деле. Сценарии применения, так сейчас распространённая виртуализация, вы не сможете предоставить блочный доступ более чем одному серверу. То что вы описываете является DAS, в соответсвующей терминологии.

3. Гигабит никаких "узким местом не является" так как на СХД как упомянутом Сторвайзе, так и на прямом конкуренте EMC VNXe3150, есть порты 10 Gb, плюс есть такая штука как агрегация линков.

4. Что касается кеширования, то ОС внутри СХД всегда будет более интеллектуально, как более низкоуровневое и специализированное ср-во, например, пытается перед записью выстроить полный Страйп, а только потом записывать его на диски, или производит запись исключительно в незанятые области дисков.

5. СХД включает в себя софт, который может например делать снепшоты с LUN'а целиком, дедуплицировать данные, или интегрироваться с системами резервного копирования или технологиями других вендоров, например VMware.

6. В СХД вы легко сможете нарастить объёмы с помощью докупки полки с дисками, а что вы будете делать когда у вас не хватит или объёма или дисковой производительности? Покупать ещё один такой же сервер?

Ну и в заключение, на DFS вы не построите ни DR-комплекс ни CHR, кроме сихронизации с негарантируемым временем вы не получите ничего. Именно поэтому DFS иначе как средство упрощённого доступа к файлам не используется в правильных средах.

P.S. Всё вышенаписанное это то с чего требует Заказчик, покупая системы за 10 000 - 15 000 у.е. никаких сверх-задач для топовых звездолётов там нет:)

  • Upvote 5

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Ну и в качестве ещё одного аргумента: C точки зрения безопасности, СХД лучше защищена, получить доступ к содержимому дисков или попытаться скомпрометировать управляющую ОС, когда СХД подключена скажем в отдельные сети хранения SAN, а управляющие интерфейсы выделены в отдельную подсеть, задача мягко говоря нетривиальная. Проще в ЦОД с топором прийти.

Corr: Скорректирую пункты 3 и 4 из предыдущего списка.

3. Гигабит никаким "узким местом" не является так как у систем хранения, (как например у Сторвайза, так и у прямого его конкурента EMC VNXe3150), есть порты 10 Gb, плюс есть такая штука как агрегация линков.

4. Что касается кеширования, ОС внутри СХД всегда будет более интеллектуальна, так как работает с блоками на более низком уровне и является специализированным средством. В качестве примера: пытается перед записью выстроить полный страйп с данными, а только потом записывать страйп на диски или в случае операций записи, производить запись исключительно в незанятые области дисков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Сергей Ильин

С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150.

3. Гигабит никаким "узким местом" не является так как у систем хранения, (как например у Сторвайза, так и у прямого его конкурента EMC VNXe3150), есть порты 10 Gb, плюс есть такая штука как агрегация линков.

Выглядит вкусно, хотя, не знаю, насколько это на практике будет актуально работать с данными на такой скорости в реалиях не столь крупной компании.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150..

Так вот я о том и толкую ... причем даже не небольшой офис, если мы говорим "бюджетный", то у меняы в сознании возникает некая SMB фирма (сеть на сотню-другу ПК, несколько серверов), которая хочет заполучить надежный бюджетный сторадж, но не готова расстаться с миллионами. Там не будет неких мега-задач виртуализации, не понадобится супер-пупер отказоустойчавость (обычного хранилища с резервированным блоком питания хватит на 120%).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
Олег давайте я напишу, что отличает СХД и одновременно попытаюсь ответить на ваши вопросы.

0. В современных СХД, всегда два независимых контроллера, две "головы" в которых идёт синхронизация кеша с обрабатываемыми данными. В физический сервер вы два контроллера в режиме active/active не получите никогда. Следовательно при отказе контроллера вы курите бамбук.

0. а у меня на полке запасной лежит - как раз на такой случай (а на время ремонта естю резервный сторадж) :)

В остальном я со всеми пунктами согласен - но имхо в типовом SMB для бюджетной системы большинство описанного не востребовано. Во многих небольших фирмах я вообще нередко вижу "стораджи" в виде простейшего сервера с дисками в зеркале, и они эту самую SMB фирму полностью устраивают. Если им предложить систему за 11 к + стоимость дисков, они просто не поймут. А там, где бюджет не ограничен и задачи серьезны, там и будут гоняться за бюджетгным решением ... Хотя может определенная ниша у таких устройств и есть, например и небольших хостинговых компаний (где вроде как и серьезное решение хочется, и много денег нет)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Сергей Ильин

С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150.

Вариант который предложил Олег, к сожалению подходит исключительно под роль файл-сервера. Можно конечно рассматривать спец Линукс-аплайнсы или Windows Storage Server, но это уже другие деньги. Чисто теоретически можно рассмотреть вариант с мощным, достаточно дорогим, внутренним контроллером с внешними портами и возможностью подключения внешней полки с дисками и это до поры до времени снимет проблему нехватки пространства или дисковой производительности.

То есть классический DAS:

adobe-mac-topology.jpg

Выглядит вкусно, хотя, не знаю, насколько это на практике будет актуально работать с данными на такой скорости в реалиях не столь крупной компании.

Если доступ к данным осуществляется по iSCSI или NFS, то есть сетевые линки используются запущенными на серверах приложениями, для обращения к данным - то запросто.

Вот например тут показана утилизация сетевых линков, задача виртуализация.

6a00d8341c328153ef0133f2424d2c970b.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust
0. а у меня на полке запасной лежит - как раз на такой случай (а на время ремонта естю резервный сторадж) :)

В остальном я со всеми пунктами согласен - но имхо в типовом SMB для бюджетной системы большинство описанного не востребовано. Во многих небольших фирмах я вообще нередко вижу "стораджи" в виде простейшего сервера с дисками в зеркале, и они эту самую SMB фирму полностью устраивают. Если им предложить систему за 11 к + стоимость дисков, они просто не поймут. А там, где бюджет не ограничен и задачи серьезны, там и будут гоняться за бюджетгным решением ... Хотя может определенная ниша у таких устройств и есть, например и небольших хостинговых компаний (где вроде как и серьезное решение хочется, и много денег нет)

Олег, то что у вас на полке лежит запасной контроллер (т.е. ЗИП) это конечно хорошо, но мы помним о том, что случись чего, за пять минут вы доступность не восстановите, скорее всего не восстановите и за час, если рейд-контроллер накрылся во время работы с массивом. Плюс ко всему ваш ЗИП сам по себе стоит денег, но при этом лежит на полке мёртвым грузом и денег не приносит.

Что касается дороговизны СХД за 11 000 для SMB, понимаете вы говорите фактически о ПБОЮЛ (2.5 компа+принтер), или о компаниях где в силу организации производственных процессов требования к ИТ очень невысоки, это не хорошо и не плохо, это просто есть. И их действительно всё устраивает по каким-либо причинам и речь не про них. Но есть и совершенно другие пусть и небольшие, но уже достаточно зрелые компании где организация этих самых бизнес-процессов требует определённого уровня "эластичности", доступности и надёжности. Именно такие компании и являются основными потребителями систем начального и среднего уровня (от 10к примерно). С приходом в широкие массы виртуализации, когда появилась возможность серьёзно экономить на инфраструктуре причём, что очень важно экономить не на гипотетических операционных затратах, а на затратах капитальных, а это живые деньги, вот в этом случае стоимость одной СХД не так уж и важна по сравнению со стоимостью инфраструктуры. И ещё я может сейчас крамольную вещь скажу, но бизнес не способный потратить на себя 10к - 30к, когда ему это требуется, это очень странный бизнес.

Далее, про бюджеты, Олег, я не знаю как у вас, но я ни разу в жизни не видел Заказчика с неограниченным бюджетом, с большим - видел, с очень большим - тоже видел, а вот с не ограниченным нет, не видел. :) Поэтому если вы говорите о Сторвайзе или VNX'е как об Энтепрайз уровне, который себе только-лишь Газпром и может позволить, то вы ошибаетесь, всё что я написал относится как раз таки не к самым суперкрутым задачам, почта, файлопомойка, виртуализация начального уровня, вот что то такое. В действительно серьёзных и тяжёлых задачах используются совсем другие системы, типа Symmetrix-vMax например.

И последнее, так уж получилось, что я по роду своей деятельности связан с данной тематикой, поэтому примерно представляю сколько систем в том числе и начально-среднего уровня продаётся в год, по понятным причинам точные цифры привести здесь не могу, но в целом порядки исчисляются сотнями систем.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Забыл добавить, Олег, всё, что написано мной выше не попытка спорить с вашим ИМХО, или "давить мнением", а попытка найти общие точки соприкосновения и поддержать дискуссию. :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

  • Сообщения

    • Ego Dekker
      Домашние антивирусы для Windows были обновлены до версии 19.0.14.
    • PR55.RP55
      Microsoft ускоряет Проводник в Windows 11 с помощью предзагрузки https://www.comss.ru/page.php?id=18618
    • AM_Bot
      Вендор Crosstech Solutions Group выпустил решение для защиты контейнерной инфраструктуры Crosstech Container Security (CTCS). Оно обеспечивает безопасность контейнерных сред: от сканирования образов до контроля запуска рабочих нагрузок и реагирования на инциденты в средах выполнения.      ВведениеФункциональные возможности Crosstech Container Security2.1. Анализ и контроль безопасности образов2.2. Контроль запуска контейнеров2.3. Безопасность в средах выполнения (Runtime Security)2.4. Безопасность окружения2.5. Внешние интеграцииАрхитектура Crosstech Container Security3.1. Основные компоненты Crosstech Container SecurityСистемные требования и лицензирование Crosstech Container Security4.1. Лицензирование4.2. Требования к аппаратной части4.3. Требования к программной части4.4. Процесс установкиСценарии использования5.1. Сценарий №1. Сканирование образов5.2. Сценарий №2. Политики безопасности образов контейнеров5.3. Сценарий №3. Контроль запуска контейнеров5.4. Сценарий №4. Мониторинг безопасности сред выполненияВыводыВведениеРоссийский рынок контейнерных разработок постоянно растёт. В 2024 году затраты на ПО для контейнеризации достигли 3 млрд рублей — это на 66 % больше, чем в 2023. Контейнерные технологии ускоряют процессы разработки, экономят ресурсы компаний, поэтому их всё чаще внедряют в свою работу ИТ-департаменты.Вместе с ростом масштабов контейнеризации увеличивается и поверхность атак: уязвимости в образах, ошибки конфигураций, несанкционированные действия внутри контейнеров. Crosstech Container Security помогает компаниям выстраивать комплексную систему защиты контейнерной инфраструктуры.Функциональные возможности Crosstech Container SecurityCrosstech Container Security объединяет функции анализа, мониторинга и управления безопасностью контейнерных сред. Решение охватывает весь жизненный цикл контейнера — от момента его создания до удаления. Продукт помогает DevSecOps-командам выявлять уязвимости, проверять конфигурации, контролировать сетевую активность и реагировать на инциденты в режиме реального времени.Анализ и контроль безопасности образовCrosstech Container Security интегрируется с реестрами хранения образов и позволяет проводить их сканирование как в ручном режиме, так и по расписанию. В результате анализа система обнаруживает дефекты в образах: уязвимости, неправильные конфигурации, секреты, а также фиксирует используемые в образах OSS-лицензии для пакетов и библиотек. По каждому найденному дефекту предоставляется детальная информация.CTCS поддерживает экспорт SBOM в форматах SPDX и CycloneDx, что упрощает аудит и обмен данными с другими решениями. Интерфейс продукта предоставляет визуализацию образов с маппингом (сопоставлением данных) на дефекты безопасности. CTCS также осуществляет дискаверинг (обнаружение) образов, располагающихся в защищаемых кластерах и на standalone-хостах.Для автоматизации контроля доступны настраиваемые политики безопасности образов, разделяемые по критериям:наличие уязвимостей в образах контейнеров выше заданной оценки критичности;наличие уязвимостей в образах контейнеров согласно заданным идентификаторам;обнаружение root в Dockerfile;возможность указания перечня образов, на которые будет распространяться созданная политика безопасности образов.При нарушении хотя бы одного из критериев политики администратор получает уведомление в интерфейсе CTCS и может оперативно принять меры: заблокировать образ, исключить его из деплоя или добавить в список исключений с указанием причины. Такой подход обеспечивает прозрачность процессов и повышает уровень доверия к среде разработки и эксплуатации.Контроль запуска контейнеровРешение обеспечивает контроль запуска контейнеров как в средах Kubernetes, так и на отдельных standalone-хостах в соответствии с заданными политиками безопасности. Это позволяет предотвращать запуск рабочих нагрузок, не соответствующих требованиям безопасности компании, ещё на этапе их инициализации.В зависимости от настроек администратор может выбрать режим реагирования: блокирование или оповещение о нарушении политики безопасности. Информация обо всех срабатываниях отображается в интерфейсе системы, обеспечивая прозрачность и возможность оперативного реагирования.Политики безопасности включают следующие критерии:попытка запуска контейнеров на базе образов, не соответствующих политикам безопасности;попытка запуска контейнеров из-под пользователя root;попытка запуска контейнеров с повышенными привилегиями ядра Linux;контроль запуска контейнеров на базе образов, не прошедших сканирование CTCS.Дополнительно решение поддерживает интеграцию с OPA Gatekeeper и имеет возможность создания и импорта политик через интерфейс CTCS.Безопасность в средах выполнения (Runtime Security)CTCS использует возможности инструмента Tetragon для создания и применения кастомных политик безопасности, позволяющих контролировать сетевые взаимодействия внутри контейнеров. Администраторы могут выбрать набор кластеров для распространения политик, что обеспечивает гибкость при внедрении требований безопасности.Вся информация о срабатываниях политик фиксируется в интерфейсе CTCS, предоставляя специалистам по информационной безопасности прозрачную картину активности в средах выполнения и возможность оперативного реагирования на инциденты.Безопасность окруженияРешение выполняет сканирование кластеров на соответствие стандартам конфигурирования CIS Kubernetes Benchmarks. Аналогично система проводит проверку standalone-хостов на соответствие CIS Docker Benchmarks. Дополнительно CTCS поддерживает сканирование конфигурационных файлов, расположенных в директориях нод кластеров, выполняя роль сканера на основе IaC (Infrastructure as Code, управление инфраструктурой через использование кода).Внешние интеграцииРешение поддерживает интеграцию с реестрами хранения образов, что обеспечивает доступ к актуальным данным для анализа и контроля безопасности контейнеров. Также CTCS поддерживает передачу журналов событий в системы сбора по протоколу Syslog для их централизованного хранения и обработки.Доступна интеграция с системой идентификации, управления доступом Keycloak с поддержкой OAuth и доменными службами каталогов. Это позволяет пользователям авторизовываться в интерфейсе системы через доменные учётные записи. Рисунок 1. Планы по развитию Crosstech Container Security Архитектура Crosstech Container SecurityАрхитектура CTCS реализована в формате однонаправленных соединений со стороны ядра системы в сторону агентов защиты (протокол TCP/IP), располагающихся в защищаемых кластерах. Такой подход позволяет использовать инстанс ядра в единственном экземпляре для инфраструктур, сегментированных по уровням доверия. Рисунок 2. Логическая архитектура Crosstech Container Security Основные компоненты Crosstech Container SecurityCTCS состоит из 3 основных компонентов:CTCS Core — группа микросервисов, отвечающая за управление системой: хранение данных, настроек, создание политик безопасности, бизнес-логика продукта, а также взаимодействие со смежными системами.CTCS Agent-Manager: модуль агент-менеджера реализован в формате оператора Kubernetes с целью контроля за установкой и изменениями кастомных ресурсов (custom resource definition, CRD), а также управления и передачи информации агент-воркерам, устанавливаемым на каждую защищаемую ноду в формате DaemonSet.CTCS Scanner — модуль, сканирующий образы контейнеров на уязвимости, неправильные конфигурации, конфиденциальные данные, информацию по OSS-лицензиям для пакетов и библиотек из состава образа, а также сканирующий кластеры на соответствие стандартам конфигурирования.Системные требования и лицензирование Crosstech Container SecurityПеред выбором модели лицензирования заказчикам рекомендуется оценить масштаб защищаемой инфраструктуры и нагрузку на кластеры. Crosstech Container Security предусматривает гибкий подход: ядро и агенты могут разворачиваться в разных сегментах сети, включая тестовые и продуктивные среды. Такой принцип позволяет оптимально распределять ресурсы и лицензии, избегая избыточных затрат.ЛицензированиеCTCS лицензируется по количеству защищаемых нод, на которые распространяются агенты защиты.В продукте реализовано гибкое лицензирование, которое позволяет заказчикам самостоятельно выбирать перечень защищаемых объектов. При достижении лимита по количеству лицензий, предусмотренных договором, администратор может отключить часть текущих объектов защиты и переназначить лицензии на новые кластеры и ноды. Рисунок 3. Включение/выключение агентов защиты Рисунок 4. Лицензии CTCS На странице лицензирования доступна подробная информация о параметрах действующей лицензии. Пользователь видит:количество оставшихся дней действия лицензии;количество нод, предусмотренных лицензией;актуальные данные о числе используемых нод в рамках лицензии;сведения о типе лицензии;информация о поставщике;информация о владельце лицензии.Рисунок 5. Страница «Лицензирование» Требования к аппаратной частиКластер, на котором производится установка CTCS, должен соответствовать минимальным характеристикам, приведённым ниже. Для определения значений millicpu (единицы времени процессора, эквивалентной тысячной части работы, которую может выполнить одно ядро CPU) рекомендуется воспользоваться документацией Kubernetes.Кластер, на который будет установлен helm-чарт ядра (без учёта сканера) должен иметь характеристики не ниже 8190 millicpu, 7410 MiB RAM.Для каждого экземпляра сканера: 3 CPU, 6 GB RAM, при добавлении дополнительных экземпляров значения увеличиваются пропорционально.В случае использования большего количества реплик значения пропорционально умножаются на их число. По умолчанию в чарте допускается до 6 реплик, что требует 18 CPU, 36 GB RAM.Каждый кластер для развёртывания чарт-агента должен иметь 2 CPU, 8 GB RAM.Необходимый минимум для каждой используемой СУБД PostgreSQL: 4 CPU, 8 GB RAM, 100 GB.Приведённые требования указаны для усреднённой конфигурации и могут быть изменены в зависимости от количества одновременных сканирований образов, генерируемых событий, деплоев, пространств имён (namespaces) и подов.Требования к программной частиДля корректной интеграции и работы приложение CTCS должно быть развёрнуто в кластере Kubernetes. При настройке системы в конфигурационном файле helm-чарта должны быть настроены необходимые параметры.Поддерживаемые контейнерные среды CRI (container runtime interface): containerd и docker.В момент выполнения инструкции на хосте администратора должны быть установлены следующие утилиты для выполнения установки:tar;helm;kubectl.Необходимые сервисы в инфраструктуре:PostgreSQL: рекомендуется размещать базу данных для хранения логов на отдельном инстансе от основной БД, чтобы избежать падения производительности основных операций при большом объёме логируемых событий;Keycloak (опционально, имеется возможность поставки в составе дистрибутива);Vault (опционально, имеется возможность использования стандартного объекта Kubernetes Secret).Требования к операционной системе и ядру:рекомендуется использовать ОС с версией ядра 5.4 или выше для обеспечения поддержки Tetragon;в ядре должна быть включена функция BTF;должны быть активированы модули eBPF и cgroup, а также корректным образом настроены или отключены модули безопасности Linux (LSM), контролирующие запуск eBPF-программ (в соответствии с официальной документацией Tetragon).Требования к версиям Kubernetes:центральная управляющая часть кластера – не ниже версии 1.23;дочерние кластеры – версия 1.23 или выше.Дополнительные требования:В кластере Kubernetes должен быть установлен, подключён и настроен storage class, в котором будет минимум 10 GB свободного места.В master-кластер должен быть установлен External Secrets (опционально).В дочерние кластеры должен быть установлен External Secrets (опционально).Во всех кластерах, где развёртывается ядро и агенты CTCS, должен быть установлен ingress-контроллер.Совокупность этих требований обеспечивает стабильную работу системы и корректное взаимодействие всех модулей CTCS. При соблюдении указанных параметров производительность решения остаётся предсказуемой даже при высокой интенсивности сканирований и большом количестве событий безопасности. Такой подход гарантирует надёжность, масштабируемость и устойчивость контейнерной инфраструктуры.Процесс установкиДля развёртывания CTCS вендор предоставляет архив, содержащий helm-чарты и образы системных контейнеров. При необходимости может быть предоставлена учётная запись для выгрузки дистрибутивов из репозиториев вендора напрямую.Сценарии использованияCrosstech Container Security закрывает ключевые задачи обеспечения безопасности контейнерных платформ — от анализа уязвимостей до защиты на уровне среды выполнения. Решение органично интегрируется в процессы DevSecOps и помогает компаниям повысить устойчивость инфраструктуры к современным киберугрозам без потери скорости разработки.Сценарий №1. Сканирование образовCTCS позволяет выполнять сканирование образов контейнеров, хранящихся как в интегрированных реестрах образов, так и локально в защищаемых кластерах. Рисунок 6. Подключённые реестры После интеграции с реестрами образов на вкладке «Образы» – «Реестры» отображается подключённый реестр и информация о хранящихся в нём образах. Реализовано в формате иерархии:Реестры.Название образа и количество его версий (тегов).Название образа и его версии.Карточка конкретного образа.Рисунок 7. Образ и список его версий Рисунок 8. Карточка образа На каждом уровне иерархии есть возможность запуска сканирования по требованию с выбором типа дефектов, которые будут учитываться в процессе сканирования. Дополнительно предоставляется общая информация об образе, данные о его соответствии установленным политикам, сведения о слоях образов с маппингом на обнаруженные дефекты. Рисунок 9. Слои образа На странице интеграций с реестрами в настройках доступно выставление расписания для проведения автоматизированного сканирования. Рисунок 10. Сканирование по расписанию Для работы с образами, обнаруженными локально в защищаемых кластерах, доступна отдельная вкладка «Образы» – «Локальные образы». Рисунок 11. Таблица локальных образов При запуске процесса сканирования доступен выбор ноды, на которой он будет проводиться. Если обнаруженный образ находится в интегрированном реестре, сканирование будет приоритетно выполняться на стороне ядра системы в рамках интеграции с реестром. Рисунок 12. Выбор нода для проведения сканирования Сценарий №2. Политики безопасности образов контейнеровВ рамках Crosstech Container Security реализовано создание политик безопасности для образов контейнеров. После их настройки система автоматически проверяет все известные образы на соответствие заданным критериям. По результатам проверки на карточке каждого образа отображается информация о соответствии или несоответствии политикам безопасности (Рисунок 7). Если образ нарушает несколько политик безопасности одновременно, в карточке отображается, какие именно политики безопасности были нарушены. Рисунок 13. Создание политики безопасности образов Сценарий №3. Контроль запуска контейнеровВ CTCS доступна интеграция с OPA Gatekeeper, обеспечивающая валидацию контейнерных деплоев и реагирование в соответствии с заданными политиками безопасности.При настройке политик безопасности доступен выбор режима реагирования — оповещение либо блокировка — а также определение перечня критериев безопасности, по которым будет осуществляться контроль. Рисунок 14. Таблица политик валидации и контроля запусков Политики безопасности могут создаваться по выделенным критериям (Рисунок 13) или импортироваться в виде кастомных политик (Рисунок 14). Рисунок 15. Создание политики валидации и контроля запусков Рисунок 16. Импорт кастомных политик безопасности Результаты срабатывания политик доступны в интерфейсе системы, что позволяет оперативно анализировать инциденты и корректировать настройки безопасности. Рисунок 17. Срабатывание политик валидации и контроля запусков Сценарий №4. Мониторинг безопасности сред выполненияВ текущей версии реализован мониторинг безопасности сред выполнения на базе Tetragon, что позволяет контролировать эксплуатацию рабочих нагрузок.В CTCS доступна форма для создания или импорта готовых политик безопасности с возможностью выбора области применения. Рисунок 18. Создание политики среды выполнения При срабатывании политик система отображает перечень событий в формате таблицы. Для каждого события можно перейти в режим детального просмотра, где отображается его идентификатор, дата и время создания, короткое описание и содержание в формате json. Рисунок 19. Событие срабатывания политики среды выполнения ВыводыАнализ решения Crosstech Container Security показал, что в версии 3.0.0 продукт предоставляет широкие функциональные возможности для защиты контейнерной инфраструктуры: от обеспечения безопасности образов контейнеров до контроля запуска и реагирования на нелегитимные процессы в средах выполнения в соответствии с политиками безопасности. CTCS также предоставляет инструменты для проведения сканирований защищаемых кластеров на соответствие стандартам конфигурирования, что повышает уровень безопасности контейнерной инфраструктуры.Достоинства:Архитектура. Благодаря однонаправленным соединениям со стороны ядра системы в сторону агентов защиты обеспечивается соответствие требованиям заказчиков, которые используют «Zero Trust»-модель на уровне сегментов инфраструктуры.Широкая площадь покрытия. CTCS обеспечивает контроль запуска контейнеров не только в рамках оркестратора Kubernetes, но и на отдельных хостах контейнеризации за счёт использования standalone-агентов.Гибкие возможности при работе с API. Весь функционал из веб-интерфейса CTCS также доступен для вызова через API, что позволяет специалистам заказчика решать нетривиальные задачи в рамках своей рабочей деятельности и интегрировать продукт в существующие процессы.Удобство при работе со сканированием образов. Иерархический подход обеспечивает гибкость при выборе области сканирования и повышает прозрачность анализа.Недостатки:Отсутствие возможности встраивания в процесс сборки (CI/CD) (планируется к реализации в первом квартале 2026 года).Отсутствие данных по ресурсам Kubernetes (Workloads, RBAC, Custom Resources, Feature Gates): планируется в 4-м квартале 2025 – 1-м квартале 2026).Отсутствие настройки гибкого разграничения прав доступа пользователей в интерфейс системы (реализация запланирована на первый квартал 2026).Отсутствие отчётности по результатам работы с системой (планируется в первом квартале 2026).Реклама, 18+. ООО «Кросстех Солюшнс Групп» ИНН 7722687219ERID: 2VfnxvVGwXfЧитать далее
    • demkd
    • PR55.RP55
      И ещё это: https://www.comss.ru/page.php?id=18330 Это и на работе Образов с Live CD может сказаться ?
×