伴随着财务公司业务的发展,业务系统对网络资源、计算资源、存储资源有了更大的需求。考虑目前财务公司IT现状的同时,新搭建超融合架构的服务器集群,满足银金融外联区的运行需求。本文结合某财务公司的实际案例着重介绍超融合基础环境落地实施的方案设计。
某集团财务公司是集团控股的非银行金融机构,是集团资金归集平台、集团资金结算平台、集团资金监控平台、集团金融服务平台,为集团及下属成员单位提供存款、贷款、代理支付、内部转账、供应链贸易融资、外汇结售汇、个性化资金管理子平台、投资顾问等金融服务,促进资金效率提升、降低财务成本,加强集团对资金流的风险监控。
近年来,随着集团整体不断发展壮大,成员单位数量不断增加,运用新的技术手段提升运营能力愈发迫切。金融外联系统作为财务公司对外服务的重要窗口,由网上银行、移动终端、银企直联、财企直联等渠道层应用组成,渠道层应用对交易和数据的强实时一致性要求不高,更多的是采用分布式中间件、微服务框架,按照业务渠道构建高内聚低耦合的组件化服务,以实现快速响应流量变化、提高运行可靠性。以当前流量估算,虚拟机资源需要21台,但随着接入单位的增加,资源消耗快速增长,系统整体的横向扩展能力亟待提升。
同时,随着金融科技风险不断暴露,金融监管部门对信息科技的监管体系日益完善,对信息系统安全性、稳定性要求进一步提高。现有硬件与存储资源已近饱和,存储设备存在老化现象,磁盘故障率增长。为提升业务连续性指标,急需重构数据存储容灾技术方案,以满足监管要求,
为更好地服务集团及各成员单位,为企业数字化提供技术支撑,满足信息科技的监管要求,打造一个安全、稳定、可靠、高效的核心基础平台成为财务公司信息化建设的重点。
原生产环境是以 X86 虚拟化为主的资源区,随着业务系统的快速增多,现有架构的已无法灵活扩展资源。原生产环境机构图如下:
原生产环境资源存在的问题主要集中在以下几点:
1、系统运维效率需要得升。
现有系统架构采用VMware + FC SAN传统架构,基础设施架构维护大量占用变更窗口。如扩容存储系统,要停机、添加磁盘、磁盘初始化等一系列操作。如扩展计算资源,要进行手动均衡、物理服务器添加、虚拟化软件安装配置等操作。
2、业务连续性需要提升。
现有集中式存储采用RAID5方案,设备使用年限长,如出现故障数据丢失风险较大,且修复故障所需时间较长。维护虚拟化集群设备工作量大,为避免系统数据丢失,维护作业一般需要先把整个系统全部停机,严重影响生产系统的业务连续性。如集群x86服务器出现单点故障,在集群资源配置不当的情况下,易产生连锁反应,造成集群性能明显下降。
3、系统部署时效需要提升。
现有金融外联系统基础环境无法快速响应业务变化,渠道层应用的快速扩展不仅要求IT资源快速上线,也要求服务的快速响应。现有的基础环境架构在快速扩容和维护便利等方面的表现不尽如人意。
4、系统资源利用率需要提升
现有集中式存储设备相对昂贵,存储架构一旦落地部署成型,后续扩展性较差。当出现高并发、大容量文件存储等情况的时候,容易受到硬件性能与容量限制。现有数据量增长迅速,如何构建一个统一可弹性扩展的存储池,将计算、内存资源通过虚拟化的方式组成资源池,响应业务系统快速扩展要求,是摆在我司面前一项现实而紧迫的任务。
采用集数据计算、存储、网络等资源于一体的超融合技术架构搭建IT基础设施,实现系统资源便利部署、高效稳定,提升运维效率。提高财务公司整体的数据处理能力和系统资源储备。不仅满足传统网络架构云资源模式的IaaS、PaaS,还可以满足向下兼容,资源弹性伸缩,数据多副本冗余。在满足当前系统建设对服务器的需求的同时,为未来信息系统的建设发展提供一个灵活的、快速响应的、稳定可靠的服务器基础环境,最终实现系统资源横向的灵活扩展,增强业务连续性保护,较好的满足业务系统稳定安全运行要求。
结合以上情况,本项目的建设目标主要包括以下几个方面:
1、为金融外联系统规划超融合平台环境,提供相关服务器基础软硬件资源。
2、运维管理区增加超融合环境覆盖。
3、针对现网结构进行整体网络优化设计改造,包括运维管理区网络改造、金融外联区超融合网络建设等。
IT基础设施平台建设需做到合理化、规范化和科学化,以应用为先导、统一规划,集中管理,在满足应用系统架构设计需求和业务数据对计算存储资源功能和性能需求的前提下,通过资源的统一分配和部署,结合超融合技术,最大化地提高资源的灵活性和利用率,满足应用业务需求扩充与资源部署变更的发展需要。
本次项目按照以下原则进行设计:
1、以系统的高可用性为原则。整个虚拟化平台的规划建设要满足高可用要求,包括服务器硬件、网络等方面不能存在单点故障风险。
2、以具备良好的扩展性为原则。虚拟化平台在规划和建设时,需要考虑其扩展能力,在计算资源和存储资源不足时,能够平滑进行扩展。
3、以确保安全性为原则。一是确保数据安全,出现单点故障不能出现数据损坏或丢失;二是确保网络安全,按照服务器的安全等级划分安全域,并且配置网络访问策略。
4、以技术先进性为原则。在技术路线选择和产品的选型方面,要充分考虑其技术先进性,能够代表当今技术的主流发展方向。
5、以技术可靠性为原则。在技术路线选择和产品的选型方面,要充分考虑技术的可靠性,选择技术成熟、运行稳定的技术方式。
6、以合理的性价比为原则,虚拟化平台的建设要结合公司信息系统的实际情况,合理制定建设方案,避免不必要投入。
7、以优先采用安全可控信息技术为原则。在能够满足项目需求的情况下,优先选择国产技术和产品。
我司的数据中心基于VMware + FC SAN传统虚拟架构,生产环境整体架构已完全成型。以超融合架构替代生产环境基础架构,为避免造成现有系统运行发生风险,影响业务系统稳定运行,超融合架构在使用前,须进行充分测试,且按系统级别逐个进行部署与切换。因此,我司联合集成服务商对传统架构和超融合架构进行了比较,并对各类超融合产品进行分析。
传统架构和超融合架构通过可维护性、可扩展性、可靠性 3 个方面进行比较,具体比较情况见下表。
综合来看,超融合架构变革更多是基于分布式存储对传统存储的替代,结合虚拟化部署方式,实现基础环境的动态扩展、快速交付,进一步简化了IT架构,降低了使用成本和运维难度。分布式存储可以采用多副本机制,数据副本分散在不同的节点服务器,当一个节点数据出现损坏,其他节点仍可以提供服务,保障了数据安全性,维持了业务连续性。分布式存储也可以采用纠删码方式来保证数据的可靠性。相对三副本,EC数据冗余保护机制在提供高可靠性的同时也能够提供更高的磁盘利用率,比如4+2纠删码的利用率是66%,可用容量是三副本冗余的2倍。
HCI厂商给用户提供的产品形态一般有两种:纯软件方案和一体机方案。采用超融合软件方案,用户可以基于超融合软件和自己选定的 x86 、ARM 等架构通用服务器硬件构建超融合基础架构;采用超融合一体机方案,厂商根据客户的需求,和自身的产品策略,为用户提供的开箱即用一体机,超融合一体机 = 超融合软件 + 厂商选定并适配的 x86 、ARM 等架构通用服务器。采用超融合一体机的好处是使用方便,开箱即用,部署快捷方便,软件与硬件配套性较好,稳定性强,安全可靠。出于降低维护和服务支持的复杂度的考虑,我司对4家超融合一体机厂商情况开展了调研。
从简便运维和软硬件统一管理的角度考虑,我司决定采用华为FusionCube 1000。华为FusionCube 1000超融合在策略上,不采取平台锁定,实现了广泛的平台支持,不仅支持华为FusionSphere、VMware、KVM等主流的虚拟化平台,还可以支持SAP HANA、Oracle、IBM DB2、Sybase等主流数据库平台。FusionCube采用全对称分布式架构,内嵌分布式存储引擎,元数据均匀分布在所有节点,无单独元数据节点,消除了性能瓶颈。FusionCube在节点间采用IB互联,RDMA等技术解决IO瓶颈。同时,FusionCube还采用NVMe SSD,不仅具备PCIE SSD的高性能,同时具有SATA硬盘的热插拔和即插即用特性,没有运动部件,相比SATA盘年化故障率大幅降低。提供了图形界面的安装方式和超统一的管理界面,部署时间最短能降低到11分钟,更能方便地实现端到端的统一管理、配置和监控,实现一个管理界面管理所有软硬件资源。
对金融外联系统及应用平台的基础环境采用超融合方案改造,通过SSD加速,采用多副本技术存储虚拟机。按照每台虚拟机800G硬盘、内存32G、8核CPU,考虑平台冗余,整个超融合集群可部署大约28台虚拟机。
整体可用资源规划:
本次项目计划部署实施3节点超融合集群,考虑到集群冗余性机制,为避免集群节点故障造成的虚拟机故障:
FusionCube出厂时会预安装CNA、VRM、FusionManager、华为分布式存储 Manager和FusionCube Center等部件,每个部件占用资源如下:
带外管理负责服务器远程管理与配置,使用服务器自带管理端口,每台服务器一个端口,分配带外管理IP地址后,可远程控制。
两台管理交换机用于集群中各服务器间的数据交互,要求必须使用万兆以太网络接入,建议使用低交换延时以太网交换机。业务网络交换机间配置级联或堆叠,以实现链路冗余性。
管理平面用于管理集群各节点服务器,每节点使用两块千兆以太网口,分别连接两台管理交换机,两个接口组成bond,以实现链路冗余。
业务平面用于虚拟机对外提供访问,每个节点使用两块万兆以太网口,分别连接到业务网络的交换机上,两个接口组成bond,以实现链路冗余。
存储平面用于华为分布式存储内部通信,每个节点使用两块万兆以太网口,分别连接到两台管理交换机,两个接口组成bond,以实现链路冗余。
设备端口示意如下:
配置3台超融合主机,每个主机预留一个华为分布式存储存储IP,用于不同主机间华为分布式存储存储池网络流量。每台主机配置2块600GB SAS系统盘;采用SSD磁盘作为数据缓存,每台主机配置2块1.6T NVMe加速盘,提升超融合集群IO性能;每台主机配置8块4TB SATA数据盘,采用EC4+2冗余存储配置,去除虚拟化平台必要的存储开销,可供虚拟机使用的空间大概45.8T左右。
EC(纠删码)是提高存储系统数据可靠性的一项编码技术。写入的对象被拆分为 K 个数据块,然后编码生成 M 个校验块,总共 K+M 份数据通过DHT 算法分别存入不同硬盘中。当系统出现故障,丢失了某些块时,只要这个对象丢失的块数目不超过 M,就可通过数据恢复算法,将丢失的数据块从剩余的块中计算出来。在这种方式下,空间的利用率约为 K/(K+M),数据的可靠性由 M 值的大小决定,M 越大可靠性越高。EC4+2相比EC2+1,虽然能容忍节点故障数量仍然是1个,但它可以允许2个节点分别有1块硬盘故障(总计2块硬盘故障)而数据不丢失。而实际情况下,硬盘故障的概率是远远低于整个节点故障的,所以EC4+2还是非常可靠的,在空间利用率上也远高于三副本,三副本的得盘约为33.3%,EC 4+2的得盘率约为66.6%。
1、多副本冗余方式
华为分布式存储大概容量=所有用于数据盘的磁盘容量总和/副本数,因华为分布式存储的元数据会占用一部分空间,实际的有效容量会比这个值小。
具体计算方法如下:
单盘的有效容量(TB) = ((z0.91)-pr/1024)*q/k
华为分布式存储有效容量=单盘的有效容量*总盘数。
1) z=盘或SSD卡标称容量(TB)。其中盘或卡的标称容量z为GB时,需转换为TB(GB/1000)。
2)r=华为分布式存储 OSD开销(GB)。华为分布式存储 OSD开销固定为20.7GB。
3)p=主存对应的OSD进程数。主存对应的OSD进程数p,不同的介质p取值不同,HDD盘和SSD盘,1个硬盘上运行的OSD进程数固定为1,SSD卡做主存时,p=(卡的容量/600G)向上取整。
4) k=副本数,副本数为2副本或者3副本,根据实际项目配置进行计算。
5) q=磁盘空间利用率,该值固定为0.95
2、纠删码冗余方式
存储池可得容量=裸容量 0.909 (进制转换)(1-预留比率) 冗余利用率 (1-DIF特性消耗) * 重删压缩比
1)冗余利用率:EC配置为N+M时冗余校验空间占比为M/(N+M)
2)HDD盘按照需要按照每64K占用1K、非SAS SSD盘按照每64K占用4K进行扣除,NVMe SSD盘不占用
3)重删压缩比:华为分布式存储 block 估算授权默认使用1.4的重删压缩比
由于金融外联系统要求7*24小时服务,在切换到超融合环境后,需要将SAN存储的数据迁移到华为分布式存储上。为尽量减少切换带来的影响,可对应用程序、存储数据分别采用不同策略进行迁移。
1、SAN存储数据建议使用第三方工具进行迁移。例如Oracle GoldenGate,IBM Data Replication Management,可以实现在线不停机迁移数据。但是业务系统切换需要停机窗口,但是时间会很短。
2、对于应用系统程序,如系统架构不是很复杂、系统节点间关联性不强、节点数量不高的情况下,可采用重新在超融合部署应用系统程序,重新部署能比较好的兼容超融合环境,但整体迁移工作耗时会比较长。但面对规模比较大的系统迁移工作,还是采用迁移工具比较稳妥,例如Rainbow,可以降低整体业务的迁移时长,支持并发性迁移,多次数据同步功能保障数据一致性,同时支持迁移过程中数据加密传输,避免数据被窃取非法利用。
3、最好不要迁移与硬件绑定的业务系统。业务系统能用离线迁移尽量就用离线迁移。迁移后,业务系统切换完,不要立刻删除原系统资源,以便回退操作。为保障迁移保证数据完整性,业务验证需要业务应用厂商支撑。
金融外联系统超融合基础环境部署实施后,相关系统虚机及数据也已顺利切换到超融合平台,当前业务运行平稳。在基础环境运维效率、基础资源利用率、业务连续性等方面得到了显著提升。
其主要体现在以下几个方面:一是空间资源集中化,最大化减少空间占用;二是运维管理统一化,一个界面统一软硬件管理;三是交付便捷化,大幅压缩了从设计到交付的周期;四是数据安全提升,多副本、跨节点备份的方式实现了数据的可靠性提升。
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞11
添加新评论10 条评论
2023-04-04 11:28
2023-04-03 18:24
2023-02-03 09:09
2022-06-04 12:16
2022-06-02 11:42
2022-06-01 00:25
2022-05-23 23:00
2022-05-23 15:39
2022-05-23 11:42
2022-05-12 11:16