全闪存储在银行核心系统的应用及实践.docx

上传人:lao****ou 文档编号:226155 上传时间:2023-06-10 格式:DOCX 页数:15 大小:47.95KB
下载 相关 举报
全闪存储在银行核心系统的应用及实践.docx_第1页
第1页 / 共15页
全闪存储在银行核心系统的应用及实践.docx_第2页
第2页 / 共15页
全闪存储在银行核心系统的应用及实践.docx_第3页
第3页 / 共15页
全闪存储在银行核心系统的应用及实践.docx_第4页
第4页 / 共15页
全闪存储在银行核心系统的应用及实践.docx_第5页
第5页 / 共15页
亲,该文档总共15页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《全闪存储在银行核心系统的应用及实践.docx》由会员分享,可在线阅读,更多相关《全闪存储在银行核心系统的应用及实践.docx(15页珍藏版)》请在第一文库网上搜索。

1、全闪存储在银行核心系统的应用及实践【摘要】本文基于某省农信同城双活中心建设情况,从现网存储架构的痛点难点、全闪存储的选型测试、架构设计及运维实践等方面,较为全面地介绍了全省存储在银行核心系统的应用及实践,同时认为全闪存储的投产为银行数字化转型坚定了信心、夯实了基础、赢得了空间。1背景随着我行业务的蓬勃发展,各应用系统数据量和交易量大幅增长,同时现网生产系统存储已运行7年有余,故障率逐渐上升。为有效提高存储架构的整体性能和可靠性,按照“小步快跑,择机突破”的策略,利用建设同城双活中心契机,更换现网核心及重要类存储并实现同城双活架构。2痛点及难点2.1 性能出现瓶颈现网核心系统瓶颈主要在于存储读写

2、延迟较高,结合核心系统应用特性(数据库超时时间较短)对基础架构稳定性要求极高,导致核心系统数据库卡顿(无响应)频繁,严重影响客户体验。同时随着业务类别的转化,原有系统数据量激增、并发量逐年增高,存储池中各业务系统IO竞争现象频发。2.2 设备扩展有限现网核心及重要类存储已投产运行7年有余,故障率逐年上升,同时受限于机房物理空间及扩容成本较高,难以对现网存储池进行扩容。2.3 售后支持不足随着国际形势、国家政策的变化,传统外企存储产品市场占有率逐步降低,与之相应的可持续售后能力也呈现弱化趋势,存储的“产品-售后”、“原厂-三方”的生态逐渐进入恶性循环,同时我行地处华中地区,相应厂商产品支持力度更

3、为堪忧,成为我行在IT运营中必须面对的重要问题。3选型测试存储设备作为银行信息系统中最为关键的核心设备,不仅存放着全行业务及管理数据,同时也是容灾解决方案的主要底层技术,选择了某品牌存储一般意味着就选择了该品牌的存储高可用技术及所配套的容灾解决方案。因此,我行综合考虑系统瓶颈、同业案例以及技术发展趋势,将全闪存作为存储选型基准,全面、真实的评估全闪存的高可用功能及性能。3.1 POC测试一是邀请4家存储领先厂商,选用多台最新型号的全闪存储,模拟多站点容灾场景,确保存储产品的专业技术能力和测试的全面性;二是以应用场景为核心,选择以核心系统耗时最长、资源开销最大的存款计息批处理作为“试金石”,测试

4、了业界常用的各类操作系统、数据库及存储等高可用技术组合的容灾架构性能。通过为期4个月的PoC测试,较为全面的测试了7种容灾技术组合的功能和性能,为存储及容灾架构选型打下坚实的基础。具体POC测试内容详见省农信核心系统高端全闪存储POC选型经验分享o3.2 选型重点结合PoC测试结果,同时还需考虑闪存产品及其厂商的技术功能、运维管理、服务生态等各维度,进行全面评估选型。技术功能方面。重点关注全闪存储的兼容性、与传统存储技术功能特性的延续性、容灾数据保护能力的差异性和和存储架构整体性能等相关方面。运维管理方面。存储厂商所提供的运维工具是否全面、多样,是否提供智能化工具、开发接口以及工具后续开发能力

5、,以提高行方存储运维效率。服务生态方面。是否提供“原厂十三方”、“一线+后台”、“交付+研发”的立体式、全天候的支撑服务体系。性价比方面。在上述内容相似的情况下,需对比每TB可用容量售价、售后服务费用等方面。综合以上各维度统筹考虑,我行通过公开招标选择了6台华为OCeanStOrDoradoI8000系列高端全闪存储,作为我行核心类及重要类3DC解决方案,并以此进行同城双活容灾方案设计。4架构方案设计存储架构的设计既要满足未来业务发展需要,技术发展趋势,也要在总体技术风险可控的前提下,对现有架构进行平滑升级,解决当前架构瓶颈。我行闪存平台的建设总体原则是根据不同应用对存储性能和容灾的诉求进行存

6、储选型。按A+、A、B、C四类应用的业务重要性及对RPO、RTO不同要求,重新排列应用主机和存储对应关系,对应不同级别容灾方案。需要注意的是,没有最好的存储技术,只有最适合的存储解决方案。因此,在存储架构方案设计时,需从行内实际情况出发,对标行业最佳实践,充分利用厂商资源,做好技术的延续性、做好架构、产品、性能、维护和费用之间的有效平衡。4.1 闪存配置存储的单机配置决定着存储架构的整体性能。因此,我行在存储架构规划时采用“高端低配”(高端机型、中低配置)策略进行存储选型,在保障技术先进、性能强大的同时,降低维护期因存储技术落后、性能不足而带来的优化和扩容等风险较大操作的频率,同时高端机型也能

7、够得到原厂商更大售后服务支持。所替换的老旧存储可用于开发测试或外围类系统使用,保护既有投资。在容量设计方面,根据现网存储容量、历史增长率以及未来增长率等指标来综合评估。以存储池为单位,根据当前容量大小,将近3年最大年增长率作为未来5年年均增长率进行估算,在此基础上再预留20%-30%可用容量。4.2 SAN,应用组网存储架构的SAN网络设计涉及SNS53842台,SNS51924台。其中A数据中心部署2台SNS5384光纤交换机、2台SNS5192光纤交换机;B容灾中心部署2台SNS5192o在满足技术先进性的前提下保障技术选型稳定性和高可用性,确保SAN架构稳健、保障业务系统性能。在实施整个

8、项目过程中以数据完整性为核心保障体系,按计划完成容灾方案为目标,尽量减少业务系统影响,降低对业务系统的影响。根据设备情况,从需求、容量、性能、可用性和管理性几个方面详细设计,重点考虑存储池类别、吞吐负载、关联耦合性,尤其需要提前规划SAN交换机端口分配规则、ZOne分配规则、跨数据中心级联设计。4.3 高可用及容灾我行根据金融机构自身特点制定了“大同城,小异地”的多数据中心整体容灾建设思路。“大同城指以双活模式构建两个同城数据中心,通过部署必要的软硬件设备,逐步实现既能两个中心共同承担业务,又能单个中心独立承载全部业务。“小异地”指建立异地灾备数据中心,在发生区域性灾难时,保障金融机构关键业务

9、的持续运营。存储架构是全行容灾方案的重要基础。存储架构方案的设计需要根据全行整体容灾建设思路,结合存储特性和业务特点统筹规划,以确保满足监管及全行所需RTO及RPO指标。在实际制定存储规划方案中,有以下方面需重点关注。4.3.1存储3DC的选择存储3DC架构已是各大存储产品的标准功能架构,也是各行业容灾方案中均采用的成熟存储容灾解决方案。但在实际使用中,需根据各行现网容灾架构、数据中心间距离、空间、带宽质量、人员分布等因素综合考虑。一般来说,存储3DC架构在物理地点设置上有两种方案,一是本地、同城和异地各一台存储,三者间形成3DC容灾架构;二是本地(2台双活)和同城(1台)组成容灾架构。我行现

10、网北京异地灾备与主中心间采用数据库逻辑复制方案,同时结合武汉地质灾害较少、本地两中心距离较短(物理距离30KM、线路距离50KM),且链路质量较好(通过裸光纤专线互联),最终选择了方案二,即本地(2台双活)和同城(1台)组成容灾架构,最大程度应对本地主中心存储故障。在存储资源池规划方面,我行存储平台的建设总体原则是根据不同应用对存储性能和容灾的诉求进行存储选型。按A+、A、B、C四类应用的业务重要性及对RP0、RTO不同要求,重新排列应用主机和存储对应关系,对应不同级别容灾方案,核心、外围采用本地双活技术做本地高可靠设计。同时优化当前烟囱式架构,FCSAN网络采用core-edge架构,通过分

11、层实现计算、存储资源池化,更利于向云化演进。存储池间数据互联互通,应用共享所有存储资源。4.3.2存储高可用方案的选择容灾体系规划应该从业务视角为出发点,以终为始的制定各类业务系统RTO和RPO,找准各容灾技术定位,通过各容灾技术组合做好备份冗余,按照业务类别和技术特性搭好容灾技术体系框架,做好容灾技术顶层设计。在同城双活中心建设时,根据业务系统重要等级将存储资源池分为核心、外围及管理三类,分别提供存储级“快照+本地双活+同城复制”、“本地双活+同城复制”及“同城复制”容灾能力。可以将上述三类存储资源池及所提供的容灾能力看做三个“篮子”,当有新增系统或变更时,只需按照业务系统等级及特性,将其放

12、入不同存储及容灾技术的“篮子”之中,同时根据需要搭配数据库复制及备份容灾技术。此举可大大降低存储及容灾体系维护工作量。容灾体系规划实践中,可以利用多种容灾技术进行组合,以提高灾难防范能力并满足业务系统的RTo和RPO要求。如,针对核心重要类系统,我行在本地存储双活、异地存储复制和数据库复制的基础上,在本地存储新增了每4小时一次的快照和每日数据库备份,利用多层次的容灾技术组合增强关键系统的高可用性。4. 4数据迁移数据迁移是存储新架构投产的关键步骤。在存储数据迁移中需重点关注数据一致性、业务完备性和系统兼容性。我行同城双活建设项目涉及应用改造和灾备架构的变更,涵盖14套核心系统和56套BC类系统

13、,涉及到应用软件版本变更、操作系统替换、数据库版本等诸多变更,数据迁移技术难度高,对客户影响大。因此,需科学安排数据迁移策略,尽量减少停机窗口和停机对我行客户服务体验感知。原14套核心业务系统主要以AIX、1inUX操作系统、DB2数据库、OraCIe数据库为主,部署于IBM小型机和DS8700存储。操作系统层面,通过1VM技术实现两台DS8700镜像双活。迁移目标环境中,对操作系统版本、数据库版本均进行了较大版本跨度的升级,给数据迁移带来更大的挑战。在数据迁移方案中,我行采用华为所提供的数据迁移工具,针对不同场景制定了个性化数据迁移方案。具体来说,针对现网存储架构,对基于1VM卷管理的存储采

14、用基于1VM卷镜像技术迁移;对SVC管理的存储池,采用华为存储纳管方式;对于应用系统环境较为复杂,无法采用上述两种方式进行数据迁移的系统,基于应用层数据备份/恢复及拷贝方式进行迁移。在正式迁移投产前,项目组通过大量迁移测试和演练,最终成功平稳的完成迁移工作。具体迁移情况将撰写存储数据迁移专题文章分享。5运维及实践4.1 实际性能4.1.1 11与原生产传统存储性能对比(1)平均读时延和最大读时延,由原架构的2.4ImS和15.41ms,提升为当前的O.4ms和0.7ms,提升约为6倍;(2)最大写时延,由原架构的4.75ms,提升为当前的Gms,提升约为4倍;(3)平均写时延,由原架构的0.4

15、4ms,提升为当前的0.4ms,略有提升。4.1.2 存储运行峰均值情况通过投产后近两年的稳定高效运行,华为OCeanStorDOradOI8000系列高端全闪存储及其整体架构表现优异。(1)平均读时延和最大读时延,分别为0.397ms和0.6ms。(2)平均写时延和最大写时延,分别为0.4ms和0.87ms;(3)总IOPS均值及峰值,分别为7315和85967。总带宽均值及峰值,分别为460MBs和2024MBso4.1.3 真实业务运行情况各类系统架构升级投产后,稳定性和性能均大幅提升,夜间批处理全量时间由5.5小时缩短至3.2小时,其中决定网点门市业务的日启批处理时间由3小时缩短至1.

16、4小时,耗时最长的存款计息批处理由I1O分钟缩短至15分钟。5. 2运维管理由华为所提供的现场“备件+驻场”,服务“现场+远程”的服务方式是闪存投产后高效稳定运营的坚实后盾。相较于原核心存储运维服务,华为原厂运维人员技术能力更加突出、后台技术支持更加到位、配套管理工具更加齐全、智能维护措施更加丰富。特别是由存储研发专家组成的二线支持团队,所提供的线上支持、现场保障和难点排查等专业服务的响应效率和事件完结率,给我行留下了深刻印象,坚定了我们对国产高端存储的信心。5.3运维工具我行与华为原厂、维保厂商所组建的存储运维团队建立了常态运维机制,包括常态巡检机制和性能分析机制,利用华为所提供的存储运维工具高效自动生成:监控评估报告、洞察分析和核心存储性能分析报告。在闪存运维中主要使用了华为所提供的SmartKit、eSe

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服