双活环境下,银行夜间批量任务(含数据库全表更新步骤)对交易成功率有较大直接影响,如何调优?

这类问题我相信很多银行都会遇到,想交流一下如何解决的,能预想的原因有系统本身参数配置问题,加上双活本身造成的性能损耗,问题影响会成倍的增加,另外也和双活架构部署的先后顺序有关,部分企业是先在单点存储上线的业务,后搭建的存储双活容灾节点,从存储和整体双活架构角度,应该如...显示全部

这类问题我相信很多银行都会遇到,想交流一下如何解决的,能预想的原因有系统本身参数配置问题,加上双活本身造成的性能损耗,问题影响会成倍的增加,另外也和双活架构部署的先后顺序有关,部分企业是先在单点存储上线的业务,后搭建的存储双活容灾节点,从存储和整体双活架构角度,应该如何调整与均衡这些指标呢?

收起
参与36

查看其它 6 个回答匿名用户的回答

匿名用户匿名用户其它某银行

不知道你所说的成功率较大影响是因为什么,我所碰到的,影响交易的,一般都是应用设置了超时失败机制而“主动失败的”,所以要去分析一下为什么超时的。
一般性交易SQL的执行时间超时,大概率是主机资源被占用(尤其是IO),导致平常1s执行完成的SQL执行了5s,这样就返回超时,碰到这种情况应该说还是比较简单的,增加IO就行,从硬件上更换存储,另外也还要看看SQL的IO开销和写法,看是否能尽可能的减少开销,优化。当然,如果可以,尽可能的缩减核心数据是最理想的办法,将历史、近期数据分离,如果可以的话,能将数据分类剥离更好,从而做到“小核心”。
还有一种,我是没碰到过,但是看你的描述“全表更新”,我姑且认为是全表级别的排它锁?如果真是这样,那应该说在逻辑上就有问题了吧?
另外我没接触过存储双活做容灾的,但是从一般的同步原理可以推测,如果是为了防止数据丢失做的“严格数据一致”,比如在Oracle Dataguard中sync模式,即为了容灾数据一致,要等待容灾接受全部信息返回结果生产才能提交的机制,那么在批量任务这种大IO,大数据变化量的情况下,可以想象也是对生产影响非常大的。

银行 · 2020-04-02
浏览3985

回答者

匿名用户
其它某银行
擅长领域: 数据库服务器存储

匿名用户 最近回答过的问题

回答状态

  • 发布时间:2020-04-02
  • 关注会员:8 人
  • 回答浏览:3985
  • X社区推广