Перейти к содержанию
AM_Bot

IBM анонсировала бюджетную систему хранения данных

Recommended Posts

AM_Bot

IBM.jpgIBM анонсировала новую систему хранения начального уровня Storwize V3700, стоимость которой стартует с 11 000 долларов. В IBM говорят, что из всех продаваемых компанией систем хранения, V3700 - является самой дешевой.

подробнее

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
IBM.jpgIBM анонсировала новую систему хранения начального уровня Storwize V3700, стоимость которой стартует с 11 000 долларов. В IBM говорят, что из всех продаваемых компанией систем хранения, V3700 - является самой дешевой.

подробнее

Я всегда строил системы хранения сам (по крайней мере для личного применения), так как никогда не мог понять принципы ценнообазования. У меня калькуляция получается такая:

1. Серверный корпус на 3U (он оптимальнее 2 U, так как у него корзинка на "морде" на 24 диска + охлаждение лучше и тише за счет того, что после корзинки можно поставить 4 штуки больших тихиходных вентилятора или сделанную на заказ "улитку", которая при шуме 45 дб будет тянуть воздух как пылесос). С блоком питания и всякими мелочами типа DVD-ROM и рельс для установки в стойку он будет стоить до 1 кб

2. Серверная материнка, память, процессор, хорошая сетевая карточка 2*1Гбит. В сумме не более 1 кб, реально дешевле (в моем домашнем файлсторадже наприме стоит Core i5 и 8 Гб ОЗУ - больше файлопомойке не нужно)

3. Хороший "железный" RAID контроллер. Минимум 1 кб ценой, но он того стоит (и будет поддерживать все мыслимые чудеса с массивами, типа гибридного RAID SSD+HDD, SSD кеширования ... у контроллера будет бортовой кеш)

4. Операционка. Можно утсановить Linux (бесплатно), Win Server 2008 (до 1 к) с ролью файлсерера

Итого 1+1+1+1 = 4 кб максимум !! (кб = килобакс, 1000$ в мирное время, 1024 - в военное :) ). Предложенное решение стоит в 3 раза дороже ... хотя позиционируется как бюджетное

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust
Я всегда строил системы хранения сам (по крайней мере для личного применения), так как никогда не мог понять принципы ценнообазования. У меня калькуляция получается такая:

1. Серверный корпус на 3U (он оптимальнее 2 U, так как у него корзинка на "морде" на 24 диска + охлаждение лучше и тише за счет того, что после корзинки можно поставить 4 штуки больших тихиходных вентилятора или сделанную на заказ "улитку", которая при шуме 45 дб будет тянуть воздух как пылесос). С блоком питания и всякими мелочами типа DVD-ROM и рельс для установки в стойку он будет стоить до 1 кб

2. Серверная материнка, память, процессор, хорошая сетевая карточка 2*1Гбит. В сумме не более 1 кб, реально дешевле (в моем домашнем файлсторадже наприме стоит Core i5 и 8 Гб ОЗУ - больше файлопомойке не нужно)

3. Хороший "железный" RAID контроллер. Минимум 1 кб ценой, но он того стоит (и будет поддерживать все мыслимые чудеса с массивами, типа гибридного RAID SSD+HDD, SSD кеширования ... у контроллера будет бортовой кеш)

4. Операционка. Можно утсановить Linux (бесплатно), Win Server 2008 (до 1 к) с ролью файлсерера

Итого 1+1+1+1 = 4 кб максимум !! (кб = килобакс, 1000$ в мирное время, 1024 - в военное :) ). Предложенное решение стоит в 3 раза дороже ... хотя позиционируется как бюджетное

Ну Олег, то, что вы описываете будет всегда иметь, только один Рейд-контроллер, ограниченный набор протоколов доступа, плюс там нет специализированной ОС, предуматривающей, например, интеллектуальное кеширование, снепшоты и тому подобный функционал. Дома может и покатит, в продакшене как бе нет.

P.S. Хотя сам по себе Сторвайз с т.з. ценовой политики довольно странная система.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
Ну Олег, то, что вы описываете будет всегда иметь, только один Рейд-контроллер, ограниченный набор протоколов доступа, плюс там нет специализированной ОС, предуматривающей, например, интеллектуальное кеширование, снепшоты и тому подобный функционал. Дома может и покатит, в продакшене как бе нет.

P.S. Хотя сам по себе Сторвайз с т.з. ценовой политики довольно странная система.

А зачем несколько контроллеров ? (в современную серверную материнку можно поставить как минимум 2 "взрослых" контроллера + задействовать ее бортовой. Я в домашнем решении применил Adaptec 52445 - его как раз хватает на все корзинки без экспандеров, причем более чем на 24 портов на сторадж не надо, там дисков столько не будет. Интеллектуальное кеширование Linux и Win2008 дает, плюс кеш самого контроллера, плюс всякие интеллектуальные кеши за счет переноса часто читаемых данных в SSD. Причем в итоге все операции "утыкаются" в пропускную способность гигабитного Ethernet и получается, что суперскорость не нужна... В плане развития выстроить масштабное решение из описанных мной "бытовых" хранилищ с помощью DFS - это тоже не проблема.

Меня собственно ценовая политика и удивила, так как такой ценник многоват для системы начального уровеня. И имхо это общая беда рынка серверов - берем как пример Depo, отдираем их этикетку - под ней Supermicro. Если отодрать супермикро - останется дешевый китайский серверный корпус, средние по надежности и цене компоненты и риторический вопрос "а почему так дорого" :)

  • Upvote 5

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Олег давайте я напишу, что отличает СХД и одновременно попытаюсь ответить на ваши вопросы.

0. В современных СХД, всегда два независимых контроллера, две "головы" в которых идёт синхронизация кеша с обрабатываемыми данными. В физический сервер вы два контроллера в режиме active/active не получите никогда. Следовательно при отказе контроллера вы курите бамбук.

1. В современных СХД типа NetApp или EMC, каждый контроллер или storage processor у вас имеет возможность предоставлять LUN'ы серверам по различным протоколам, как фаловым CIFS, NFS так и блочным (чего ваше решение с Вин сервер никогда не сможет) типа FC или iSCSI.

2. Ресурсы системы хранения могут предоставляться множеству серверов одновременно, это фундаментальное отличие на самом деле. Сценарии применения, так сейчас распространённая виртуализация, вы не сможете предоставить блочный доступ более чем одному серверу. То что вы описываете является DAS, в соответсвующей терминологии.

3. Гигабит никаких "узким местом не является" так как на СХД как упомянутом Сторвайзе, так и на прямом конкуренте EMC VNXe3150, есть порты 10 Gb, плюс есть такая штука как агрегация линков.

4. Что касается кеширования, то ОС внутри СХД всегда будет более интеллектуально, как более низкоуровневое и специализированное ср-во, например, пытается перед записью выстроить полный Страйп, а только потом записывать его на диски, или производит запись исключительно в незанятые области дисков.

5. СХД включает в себя софт, который может например делать снепшоты с LUN'а целиком, дедуплицировать данные, или интегрироваться с системами резервного копирования или технологиями других вендоров, например VMware.

6. В СХД вы легко сможете нарастить объёмы с помощью докупки полки с дисками, а что вы будете делать когда у вас не хватит или объёма или дисковой производительности? Покупать ещё один такой же сервер?

Ну и в заключение, на DFS вы не построите ни DR-комплекс ни CHR, кроме сихронизации с негарантируемым временем вы не получите ничего. Именно поэтому DFS иначе как средство упрощённого доступа к файлам не используется в правильных средах.

P.S. Всё вышенаписанное это то с чего требует Заказчик, покупая системы за 10 000 - 15 000 у.е. никаких сверх-задач для топовых звездолётов там нет:)

  • Upvote 5

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Ну и в качестве ещё одного аргумента: C точки зрения безопасности, СХД лучше защищена, получить доступ к содержимому дисков или попытаться скомпрометировать управляющую ОС, когда СХД подключена скажем в отдельные сети хранения SAN, а управляющие интерфейсы выделены в отдельную подсеть, задача мягко говоря нетривиальная. Проще в ЦОД с топором прийти.

Corr: Скорректирую пункты 3 и 4 из предыдущего списка.

3. Гигабит никаким "узким местом" не является так как у систем хранения, (как например у Сторвайза, так и у прямого его конкурента EMC VNXe3150), есть порты 10 Gb, плюс есть такая штука как агрегация линков.

4. Что касается кеширования, ОС внутри СХД всегда будет более интеллектуальна, так как работает с блоками на более низком уровне и является специализированным средством. В качестве примера: пытается перед записью выстроить полный страйп с данными, а только потом записывать страйп на диски или в случае операций записи, производить запись исключительно в незанятые области дисков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Сергей Ильин

С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150.

3. Гигабит никаким "узким местом" не является так как у систем хранения, (как например у Сторвайза, так и у прямого его конкурента EMC VNXe3150), есть порты 10 Gb, плюс есть такая штука как агрегация линков.

Выглядит вкусно, хотя, не знаю, насколько это на практике будет актуально работать с данными на такой скорости в реалиях не столь крупной компании.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150..

Так вот я о том и толкую ... причем даже не небольшой офис, если мы говорим "бюджетный", то у меняы в сознании возникает некая SMB фирма (сеть на сотню-другу ПК, несколько серверов), которая хочет заполучить надежный бюджетный сторадж, но не готова расстаться с миллионами. Там не будет неких мега-задач виртуализации, не понадобится супер-пупер отказоустойчавость (обычного хранилища с резервированным блоком питания хватит на 120%).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Зайцев Олег
Олег давайте я напишу, что отличает СХД и одновременно попытаюсь ответить на ваши вопросы.

0. В современных СХД, всегда два независимых контроллера, две "головы" в которых идёт синхронизация кеша с обрабатываемыми данными. В физический сервер вы два контроллера в режиме active/active не получите никогда. Следовательно при отказе контроллера вы курите бамбук.

0. а у меня на полке запасной лежит - как раз на такой случай (а на время ремонта естю резервный сторадж) :)

В остальном я со всеми пунктами согласен - но имхо в типовом SMB для бюджетной системы большинство описанного не востребовано. Во многих небольших фирмах я вообще нередко вижу "стораджи" в виде простейшего сервера с дисками в зеркале, и они эту самую SMB фирму полностью устраивают. Если им предложить систему за 11 к + стоимость дисков, они просто не поймут. А там, где бюджет не ограничен и задачи серьезны, там и будут гоняться за бюджетгным решением ... Хотя может определенная ниша у таких устройств и есть, например и небольших хостинговых компаний (где вроде как и серьезное решение хочется, и много денег нет)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Сергей Ильин

С интересом прочитал ваше посты выше. Пожалуй, вариант Олега подойдет вполне для личных целей или небольшего офиса. Но если речь уже идет о приобретении взрослой расширяемой системы хранения под работу с виртуалками и работу с различными протоколами, то стоит рассмотреть варианты типа Storwize V3700 или EMC VNXe3150.

Вариант который предложил Олег, к сожалению подходит исключительно под роль файл-сервера. Можно конечно рассматривать спец Линукс-аплайнсы или Windows Storage Server, но это уже другие деньги. Чисто теоретически можно рассмотреть вариант с мощным, достаточно дорогим, внутренним контроллером с внешними портами и возможностью подключения внешней полки с дисками и это до поры до времени снимет проблему нехватки пространства или дисковой производительности.

То есть классический DAS:

adobe-mac-topology.jpg

Выглядит вкусно, хотя, не знаю, насколько это на практике будет актуально работать с данными на такой скорости в реалиях не столь крупной компании.

Если доступ к данным осуществляется по iSCSI или NFS, то есть сетевые линки используются запущенными на серверах приложениями, для обращения к данным - то запросто.

Вот например тут показана утилизация сетевых линков, задача виртуализация.

6a00d8341c328153ef0133f2424d2c970b.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust
0. а у меня на полке запасной лежит - как раз на такой случай (а на время ремонта естю резервный сторадж) :)

В остальном я со всеми пунктами согласен - но имхо в типовом SMB для бюджетной системы большинство описанного не востребовано. Во многих небольших фирмах я вообще нередко вижу "стораджи" в виде простейшего сервера с дисками в зеркале, и они эту самую SMB фирму полностью устраивают. Если им предложить систему за 11 к + стоимость дисков, они просто не поймут. А там, где бюджет не ограничен и задачи серьезны, там и будут гоняться за бюджетгным решением ... Хотя может определенная ниша у таких устройств и есть, например и небольших хостинговых компаний (где вроде как и серьезное решение хочется, и много денег нет)

Олег, то что у вас на полке лежит запасной контроллер (т.е. ЗИП) это конечно хорошо, но мы помним о том, что случись чего, за пять минут вы доступность не восстановите, скорее всего не восстановите и за час, если рейд-контроллер накрылся во время работы с массивом. Плюс ко всему ваш ЗИП сам по себе стоит денег, но при этом лежит на полке мёртвым грузом и денег не приносит.

Что касается дороговизны СХД за 11 000 для SMB, понимаете вы говорите фактически о ПБОЮЛ (2.5 компа+принтер), или о компаниях где в силу организации производственных процессов требования к ИТ очень невысоки, это не хорошо и не плохо, это просто есть. И их действительно всё устраивает по каким-либо причинам и речь не про них. Но есть и совершенно другие пусть и небольшие, но уже достаточно зрелые компании где организация этих самых бизнес-процессов требует определённого уровня "эластичности", доступности и надёжности. Именно такие компании и являются основными потребителями систем начального и среднего уровня (от 10к примерно). С приходом в широкие массы виртуализации, когда появилась возможность серьёзно экономить на инфраструктуре причём, что очень важно экономить не на гипотетических операционных затратах, а на затратах капитальных, а это живые деньги, вот в этом случае стоимость одной СХД не так уж и важна по сравнению со стоимостью инфраструктуры. И ещё я может сейчас крамольную вещь скажу, но бизнес не способный потратить на себя 10к - 30к, когда ему это требуется, это очень странный бизнес.

Далее, про бюджеты, Олег, я не знаю как у вас, но я ни разу в жизни не видел Заказчика с неограниченным бюджетом, с большим - видел, с очень большим - тоже видел, а вот с не ограниченным нет, не видел. :) Поэтому если вы говорите о Сторвайзе или VNX'е как об Энтепрайз уровне, который себе только-лишь Газпром и может позволить, то вы ошибаетесь, всё что я написал относится как раз таки не к самым суперкрутым задачам, почта, файлопомойка, виртуализация начального уровня, вот что то такое. В действительно серьёзных и тяжёлых задачах используются совсем другие системы, типа Symmetrix-vMax например.

И последнее, так уж получилось, что я по роду своей деятельности связан с данной тематикой, поэтому примерно представляю сколько систем в том числе и начально-среднего уровня продаётся в год, по понятным причинам точные цифры привести здесь не могу, но в целом порядки исчисляются сотнями систем.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Dr. Faust

Забыл добавить, Олег, всё, что написано мной выше не попытка спорить с вашим ИМХО, или "давить мнением", а попытка найти общие точки соприкосновения и поддержать дискуссию. :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

  • Сообщения

    • Ego Dekker
    • ArktiTig
      Арктика - северная полярная область Земли, включающая окраины материков Евразии и Северной Америки, почти весь Северный Ледовитый океан с островами и прилегающие к нему части Атлантического и Тихого океанов. Название её происходит от греческого слова arctos (медведь) и связано со звёздами: Полярная звезда, находящаяся почти точно в зените над Северным полюсом, принадлежит к созвездию Малая Медведица.
    • ArktiTig
      Арктика - северная полярная область Земли, включающая окраины материков Евразии и Северной Америки, почти весь Северный Ледовитый океан с островами и прилегающие к нему части Атлантического и Тихого океанов. Название её происходит от греческого слова arctos (медведь) и связано со звёздами: Полярная звезда, находящаяся почти точно в зените над Северным полюсом, принадлежит к созвездию Малая Медведица.
    • PR55.RP55
      .xml  файлы taskschd.msc Могут быть подписаны  цифровой подписью. Думаю будет нелишним, если uVS будет это фиксировать. т.е. проверять не только подпись целевого файла, но и подпись самого файла\задачи. и писать в ИНфО .  
    • demkd
      ---------------------------------------------------------
       4.15.2
      ---------------------------------------------------------
       o Исправлена ошибка при работе с образом автозапуска.
         Для некоторых процессов команда unload не добавлялась в скрипт при нажатии кнопки "принять изменения".  o Добавлена плашка окна на таскбаре для окна удаленного рабочего стола.
         (при работе с удаленной системой) -----------------------------------------------------------
      Есть проблема с локализацией глюка в редких случаях приводящему к аварийному завершению uVS при активном флаге "Проверять весь HKCR".
      На основе дампов его найти не получается, нужна копия реестра системы с такой проблемой, если кому-то попадется такая проблема, то присылайте архив с копией реестра системы мне на почту.  
×