在转向全闪存的时代,任何传统存储的控制器都会出现性能瓶颈,不管是高端存储的多控制结构还是中端的双控结构。闪存芯片的IOPS能力太强以致于传统存储架构无法全部利用其性能。
拿SVC来说,如果虚拟化F900之类的全闪存存储,单个SVC集群可以发挥全部F900的性能。但是如果虚拟化多个F900的存储,SVC就会变为瓶颈。
如果不需要SVC上的数据复制及其他功能,单纯只需要I/O能力,那么直接用F900即可。
个人以为,很少有企业能充分发挥SVC的性能,直至其成为瓶颈。
SPC-1的存储极限测试了,8个节点的SVC带着2048块V7000的磁盘,达到了传统磁盘存储的世界纪录52万IOPS,在SSD混插和SVC的ET越来越成熟的今天,这点更不是问题。
我们实施的案例中,既有SVC虚拟化镜像HDS的顶级存储VM(某电力企业),也有后接IBM的DS8000(某制造业),也有混搭HDS的VM下的SSD盘和V7000的4T NL-SAS(某医药集团),都性能运转良好,所以不必太过担心这个问题。
我们自己的实验室里目前200余套X86环境,近100套小机(含AIX和HP-UX),数千人使用,仅2个节点的SVC 带了8个老存储中近200块磁盘,轻松实现。
收起我觉得,如果站在最终用户角度来看待,没有完善的POC很难拿到结果,例如:有影响,影响有多大,影响是正面的还是负面等等内容。一个极端例子,目前很多闪存阵列都支持INFINIBAND连接,按照目前SVC组网方式性能肯定有影响,如果安装SVC后客户觉得剩余性能仍然是过剩的,那我认为就是没有影响。
其次,SVC进入方案以后,方案核心应该是功能性,而非—性能主导,否则这个方案需求重心偏离。
收起SVC和IBM的FS产品本身定位就不一样,SVC关注于存储虚拟化和数据中心双活,而FS则关注于提高高IOPS和低延时,两则本身是不矛盾的;
在使用SVC时,更多的是为了整合新旧存储,提高存储的资源利用率,在存储虚拟化平台的基础上,可以建立本地两存储的双活或是异地双数据中心的双活,一般在使用SVC架构时,很少会配置有FS;
当然SVC可能会成为存储系统中的性能瓶颈(性能问题可以通过增加CACHE来尽量的弥补),同时还会增加存储系统架构的不稳定性,因为SVC是在原有的H-N-A架构中添加了一层变成H-N-S-A这样的四层架构,故障节点也会增加,同时SVC后端的所有存储资源都要完全依赖于SVC对外提供LUN服务,所有一旦SVC出现故障后,SVC后端管理的存储资源都不能正常对外提供数据服务;
FS全闪存阵列提高高IOPS和低延时,满足于实时并发操作要求很高的应用
收起